Sorry, this entry is only available in Українська.

На сайті Times Higher Education опублікована стаття Джульєтти Роусел «Вчені діляться рекомендаціями щодо етичного використання штучного інтелекту в дослідженнях».

У ній автор зазначає, що науковці розуміють важливість прозорості та надійності перевірки поданих до журналів рукописів наукових публікацій. Джульєтта надає поради щодо етичного використання штучного інтелекту в академічній літературі й недопущення сумнівних дослідницьких практик. При цьому вона спирається на рекомендації, розроблені вченими з університетів Кембриджа, Копенгагена, Оксфорда, Національного університету Сінгапуру та інших установ, опубліковані в Nature Machine Intelligence. Надзвичайно високий рівень поширення використання великих мовних моделей (LLM), таких як ChatGPT, у наукове середовище, спричиняє велику кількість різноманітних ризиків (плагіат, некоректне зазначення авторства тощо). Провідні наукові журнали світу «тепер активно заохочують відповідальне використання ГШІ для підвищення якості». Для цього у будь-яких рукописах,  які містять згенеровані ШІ тексти, повинне надаватись чітке однозначне підтвердження та забезпечуватись прозорість щодо використання LLM. Крім того, знову набуває неабиякого значення людська перевірка текстів, яка має гарантувати точність і цілісність будь-якої роботи, створеної у співпраці зі штучним інтелектом, щоб встановити, що у роботу був зроблений «значний людський внесок».  Ці рекомендації розроблялись на тлі активних дебатів щодо використання штучного інтелекту в академічних колах і щодо того, чи повинні університети обмежити використання цієї технології або прийняти її, причому останні дослідження показують, що науковці використовують інструменти ШІ навіть більше, ніж студенти. Наприклад, пропонується шаблон, який автори можуть використовувати, направляючи рукописи до видавництва, щоб підтвердити задіяння інструментів ШІ у своїй роботі. Потрібно упорядковувати етичні стандарти та забезпечувати їх дотримання в умовах максимальної прозорості щодо використання LLM. Джуліан Савулеску, директор Оксфордського центру практичної етики та один із співавторів рекомендацій, стверджує, що інструменти ШІ «можуть знищити академічну незалежність, креативність, оригінальність і саму думку як таку. Разом із тим, вони також можуть сприяти неймовірній спільній творчості та продуктивності».

Детальніше: http://surl.li/gqbzbo, http://surl.li/hblzgx, http://surl.li/gfqoqj

Фото: pixabay.com

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_АкадемДоброчесність_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини

ЕТИЧНЕ ВИКОРИСТАННЯ ШІ В АКАДЕМІЧНІЙ ПРАКТИЦІ
2024-12-16
Share