На сайті Times Higher Education опублікована стаття Тома Вільямса «Детектори тексту ШІ не працюють.
Чи є регулювання відповіддю?». Автор розмірковує над питанням: оскільки інструменти, розроблені для викорінення неправомірних дій з інструментами ШІ виявились неточними, чи потрібно більш суворе регулювання використання генеративного штучного інтелекту в академічному середовищі? З появою ШІ університети в усьому світі підтримали використання відповідних детекторів задля протидії недобросовісним діям студентів під час навчання. Але наразі стає все більше доказів того, що «доступні інструменти виявлення не є ані точними, ані надійними та в основному схильні класифікувати результати як написані людиною, а не виявляти текст, згенерований штучним інтелектом». Дослідження, проведене вченими з Університету Меріленда, підтвердило побоювання з приводу неточності роботи детекторів: студенти можуть легко їх перехитрити, використовуючи інструменти перефразування для переписування тексту, створеного за допомогою великих мовних моделей. Один з авторів цього дослідження, Сохейл Фейзі, доцент кафедри комп’ютерних наук, сказав, що недоліки в інструментах уже проявили себе і мали негативний вплив (несправедливе звинувачення студентів у неправомірній поведінці). «Зростає визнання того, що нам необхідна можливість розрізняти текст, написаний штучним інтелектом, і текст, написаний людиною з низки етичних та юридичних причин. У довгостроковій перспективі на користь кожного знати, чи створено щось ШІ чи ні», вважає професор Дрейпер. Модель детектора, створена OpenAI, нещодавно була відкладена, що багато хто розцінив як доказ того, що виявлення ГШІ неможливе. Turnitin, чий детектор загалом отримав більш високі оцінки, ніж більшість інших та був використаний 65 мільйонів разів, теж не став непогрішимим. Нещодавно у США великими компаніями, що працюють над великими мовними моделями, було прийнято добровільне зобов’язання щодо розробки «надійних технічних механізмів, які гарантують, що користувачі знають, коли контент є штучним інтелектом». «Дехтокаже, що виявлення ніколи не йтиме в ногу з часом. Це вірно, коли незалежна компанія намагається передбачити, що відбудеться далі, але коли у вас є зобов’язання створити засоби виявлення ГШІ від самих компаній-розробників штучного інтелекту, ви перебуваєте на набагато сильнішій позиції».
All accounts on the NRA website go through a standard registration procedure and are verified. However, in order to obtain additional features, such as publishing open reviews of academic texts, verification by affiliation is required.
To obtain the status “verified”, you must change your primary email address to a corporate one, which is tied to a scientific or educational institution.
For example: user@ukrintei.ua, user@nas.gov.ua
After confirming your corporate email address, your account will be automatically verified by affiliation.
If your email address is corporate, but your account does not have a verification mark, you need to write to us at the email address nrat_portal@ukrintei.ua. After verification, we will add your address to the database, and your account will be verified.
After completing the verification procedure for affiliation, you can change the primary email address to a convenient one for you, without losing your status during the current verification.
You only need to verify for affiliation once.
* We use corporate addresses from the Unified State Database on Education and the State Register of Scientific Institutions Supported by the State