Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.
Поява фальшивих статей і систематичне маніпулювання експертною оцінкою з боку окремих осіб та організацій спонукали редакторів і видавців до вжиття відповідних заходів. Однак поки що виявлення фальшивих робіт залишається складною справою. Продовжують створюватись публікаційні фабрики (виробники і торговці фальшивих рукописів, що імітують справжні дослідження), розвиваються інструменти для написання й узагальнення текстів і створення зображень.
Розуміючи гостроту проблем, які постали перед академічною спільнотою, Комитет з публикаційної етики (COPE) 23 березня 2023 р. провів форум із обговорення етики використання штучного інтелекту. Під час заходу розглядались наступні питання: 1) чи прийнятною та етичною є практика використання ШІ для написання наукової статті; 2) чи можна визначити залучення ШІ до написання статті; 3) чи можна вважати оригінальною статтю, написану ШІ, навченим на існуючих статтях; 4) які наслідки матиме створення текстів штучним інтелектом для антиплагіатних розслідувань і перевірок; 5) чи може «антиплагіатна» перевірка виконуватись виключно спеціальними інструментами ШІ; 6) які ризики можуть виникати у разі написання штучним інтелектом рецензій; 7) як забезпечити справедливість та інклюзію для вчених з обмеженими можливостями, які використовують інструменти ШІ в якості допоміжної чи адаптивної технології. Основні коментарі з форуму у перекладі, близькому до суті оригінальної публікації, наведені нижче.
Інструменти штучного інтелекту вже використовуються науковими видавництвами під час перевірок, що передують рецензуванню (якість мови, відповідність тематиці журналу) та у рамках експертного оцінювання (визначення рецензентів, перевірка даних). Разом із тим, не можна нехтувати тим, що ці інструменти можуть застосовуватись недоброчесно (наприклад, для створення цілих статей або зображень). Позиція COPE відносно штучного інтелекту була нещодавно оприлюднена. Зокрема, такі інструменти, як ChatGPT, не можуть відповідати критеріям ICMJE щодо авторства, а їх використання має бути прозоро декларовано. Інструменти виявлення запозичень знаходяться у стадії розробки. CrossRef разом із Turnitin/iThenticate тривалий час працюють над виявленням плагіату ідей, розробляють інструменти для виявлення маніпуляцій із зображеннями. Важливим є питання про те, чи можна вважати згенерований штучним інтелектом текст оригінальним, тим більше, що інструмент сам постійно навчається. COPE наголошує, що у всякому разі кінцева відповідальність за результати дослідження та матеріали статті належить людині-автору. Багато гострих проблем пов’язано з нетекстовим вмістом – зображеннями та ідеями. Тому посилання на джерело є як ніколи раніше важливим, навіть ключовим: видавці повинні очікувати, що увесь вміст створено людьми-авторами, якщо немає заяви про протилежне. Інструменти штучного інтелекту використовуються для створення оригінальних оглядових статей, але важливо, щоб автор надавав точні та коректні посилання. На це особливу увагу мають звертати рецензенти та редактори у процесі рецензування наукових праць. Часткова або повна відмова від контролю над створенням контенту не звільняє автора від відповідальності, у т.ч. відповідальності за будь-яке порушення авторських прав.
Використання інструментів штучного інтелекту за своєю суттю не є неетичним і може бути корисним, наприклад, для авторів, які не пишуть англійською як рідною мовою, які мають проблеми з навчанням або змушені долати інші труднощі з письмом. У цьому відношенні штучний інтелект може бути корисною допоміжною або адаптивною технологією. Але на використання цих інструментів обов’язково слід вказувати; уся повнота відповідальності залишається за людиною-автором/укладачем.
Інструменти штучного інтелекту можуть бути корисними у процесі здійснення експертної оцінки. Разом із тим, отриманий таким чином звіт може бути лише допоміжним для людей-експертів у їхній експертній діяльності.
ЗВО наразі працюють над правилами використання інструментів ШІ. Але відповідні політики у різних закладах освіти можуть бути різними.
Редактори та автори наукових публікацій повинні враховувати ступінь допомоги, яку надає інструмент ШІ. Так, інструменти перекладу та виправлення граматики отримали широке розповсюдження і навряд чи потребують від їх користувачів відповідної публічної декларації про використання. Однак там, де інструмент допомагає безпосередньо у створенні контенту, проведенні аналізу, здійснює перефразування, – має бути забезпечена максимальна прозорість: такі моменти потрібно обов’язково описувати, називати задіяний інструмент та вказувати версію, що була використана.
Таким чином, які б інструменти автор не залучав під час власних досліджень, основний принцип дотримання академічної етики полягає у тому, що саме людина-автор несе відповідальність за отриманий результат та його оригінальність.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ
2023-05-04
Поширити