На сайті Times Higher Education опублікована стаття Ліліан Шофілд і Сюе Чжоу «Контроль за використанням ШІ шляхом підрахунку «сигнальних» слів – помилковий і шкідливий».
Наголошується, що змушувати людей повсякчас хвилюватись з приводу використання слів не є способом відповідального використання ШІ. Автори стурбовані тим, що науковцям прищеплюється тривожна поведінка, адже їм тепер під час написання статей, есе та ведення дискусій потрібно особливо ретельно слідкувати за використанням термінології, щоб не складалось враження, що текст згенерований штучним інтелектом. Під час дискусій про твори студентів і викладачів тепер можна почути фразу «Я думаю, що це написано ШІ». Нещодавня розмова, яка набула поширення у соціальних мережах, оберталася навколо певної лексики, що вважається надто поширеною у контенті, створюваному ChatGPT. Однак перш ніж ставати суддею і присяжними, нам слід бути дуже обережними щодо сумнівів про авторство творів. Розслідування, які проводять люди так само, як виконані їхніми запрограмованими людьми механічними побратимами, мають обмеження й упередження щодо мови. Припущення про те, що певні слова або фрази вказують на використання ШІ, виключає широкий спектр виразних можливостей і не бере до уваги мовне розмаїття у світі. Виявлення контенту, створеного ШІ, – складний і неоднозначний процес, – це не просто підрахунок частоти певних контрольних слів і фраз. Хоча деякі університети та наукові журнали не дозволяють використовувати ГШІ, більш далекоглядні їхні колегі вже зробили послаблення для ШІ-помічників у разі їх явного використання для перевірки граматики, орфографії та здійснення аналізу даних. Отже, пишуть автори статті, в епоху штучного інтелекту необхідно дати нове визначення академічної доброчесності та переоцінити мету освіти. Можливо, слід зосередитися на навчанні студентів і співробітників відповідального використання генеративного ШІ, а не намагатися зловити їх на цьому. Адже якщо вони роблять це прозоро та відповідально, то у чому сенс заборони?
Детальніше: http://surl.li/tymag
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини