
На сайті Times Higher Education опубліковано статтю Джорджа Шалхуба «Ми повинні встановити правила використання ШІ у наукових роботах і рецензуванні».
У ній автор наголошує, що без чітких правил використання інструментів генеративного штучного інтелекту у наукових текстах і процесі рецензування може бути втрачена довіра до самої системи академічної комунікації. Шалхуб зазначає, що великі мовні моделі дедалі частіше стають невидимими співавторами наукових текстів. Уже траплялися випадки, коли до наукових статей потрапляли фрази, очевидно породжені ШІ, або навіть цілі абзаци, які не мали жодного стосунку до змісту дослідження. Окремі журнали змушені були відкликати публікації після виявлення таких фактів. Дослідження показують, що ознаки машинного тексту присутні щонайменше у кожній восьмій науковій анотації, а в галузі комп’ютерних наук — майже у 20% робіт. Такі самі тенденції мають місце і в рецензуванні: до 17 % рецензій містять фрази, сформовані штучним інтелектом. Проблема посилюється через зростання кількості наукових рукописів, які потребують рецензування. Академічне середовище заохочує кількість публікацій, тоді як сама процедура оцінювання залишається неоплачуваною і надмірно перевантаженою. Це створює спокусу використовувати штучний інтелект, аби скоротити час підготовки текстів чи рецензій. Водночас з’являються нові форми маніпуляцій — автори іноді приховують у документах інструкції для ШІ, які впливають на оцінювання наукової роботи. Автор переконаний, що ця ситуація вимагає невідкладного врегулювання. Передусім наукові журнали та організатори конференцій мають ухвалити політики, які зобов’язують декларувати будь-яке використання штучного інтелекту. Має бути чітко вказано, який саме інструмент застосовано, з якою метою і яку роль він відіграв у створенні тексту. Відповідальність за зміст і достовірність завжди залишається за людьми, тому ШІ не може бути вказаний як співавтор. Рецензенти повинні ретельно перевіряти подані матеріали (зокрема – на предмет прихованих інструкцій) і користуватися лише перевіреними інструментами. Одночасно потрібно створювати механізми аудиту та контролю, які передбачатимуть не лише виявлення порушень, а й послідовну систему відповідальності: від попередження у разі ненавмисних помилок до суворих санкцій за повторні або свідомі порушення. Така регламентація не повинна зупиняти використання ШІ, а має зробити його безпечним і відповідальним. Загальний висновок автора полягає в тому, що стрімкий технологічний прогрес потребує нової культури академічної доброчесності. Штучний інтелект може бути корисним інструментом для науковців, але лише тоді, коли його застосування буде прозорим, підзвітним і підконтрольним. Тільки за цієї умови можливо зберегти довіру до наукового знання як колективного людського надбання.
Детальніше: https://qrpage.net/qr/zLdGz
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_АкадемДоброчесність #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_НауковіВидання_новини