
На сайті Times Higher Education опублікована стаття Кел Іннес «Вчені не повинні відчувати провину за вплив використання штучного інтелекту на навколишнє середовище».
У ній автор закликає зосередитися на використанні енергії та води штучним інтелектом там, де це може мати найбільше значення, і вимагати щодо цього відповідальності саме від розробників ШІ. Останнім часом активно дискутується серед університетських співробітників та студентів питання взаємозв’язку використання штучного інтелекту та зміни клімату. Такі інструменти, як ChatGPT, Copilot та Gemini, що дедалі більш активно і масштабно використовуються науковцями для підготовки навчальних матеріалів, адміністративними працівниками – для керування поштовими скриньками, дослідниками – для узагальнення наукової літератури. Одночасно зростає кількість публікацій, де обговорюється зростання енергоспоживання при роботі штучного інтелекту, інтенсивне використання води центрами обробки даних для охолодження обладнання. Звісно, університети мають допомогти співробітникам і студентам зрозуміти вплив цифрових інструментів на навколишнє середовище, дізнатись про широкий спектр позитивних та негативних сторін використання ШІ. Нещодавно проведене галузеве опитування показало, що менше половини викладачів можуть комфортно справлятися зі своїм робочим навантаженням. Їх, звісно, турбує використання енергії та води штучним інтелектом, але це зона відповідальності розробників ШІ: вони мають забезпечити прозору звітність про використання енергії та екологічний вплив інфраструктури. Урядам також слід посилювати регулювання, оновити стандарти та застосовувати стимули для більш екологічної роботи центрів обробки даних. Не можна ігнорувати той факт, що не всі моделі та інструменти ГШІ однакові. Генеративні чат-боти становлять лише невелику частину загального споживання енергії, пов’язаного зі штучним інтелектом. Дійсно велике споживання енергії відбувається, наприклад, при вирішенні завдань створення та аналізу відео, забезпеченні цільової реклами тощо. Кел Іннес вважає, що екологічну загрозу становить не окремий користувач, який покладається на ChatGPT для підсумовування нотаток із зустрічей або використовує Copilot для написання електронного листа, а неконтрольоване розширення непрозорої інфраструктури, відсутність системи збирання та оприлюднення даних про екологічний вплив технологічних компаній. Індивідуальна обізнаність – це добре. Вона допомагає робити обґрунтований вибір, викликати необхідність змін та притягувати інституції до відповідальності. Але не треба плекати індивідуальну провину – це не вирішить проблему! Потрібне розумне регулювання, прозорість та підзвітність на системному рівні.
Детальніше: https://qrpage.net/qr/Okop5
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини