АВТОРСТВО ТА ШТУЧНИЙ ІНТЕЛЕКТ: ПУБЛІКАЦІЙНА ЕТИКА WILEY

АВТОРСТВО ТА ШТУЧНИЙ ІНТЕЛЕКТ: ПУБЛІКАЦІЙНА ЕТИКА WILEY

На сайті Wiley – міжнародного видавництва, що спеціалізується на випуску академічних видань у формі книг, журналів, енциклопедій для професіоналів, студентів, викладачів університетів, дослідників, а також надає доступ до продуктів та послуг у мережі інтернет, опубліковані роз’яснення для авторів.

На сайті Wiley – міжнародного видавництва, що спеціалізується на випуску академічних видань у формі книг, журналів, енциклопедій для професіоналів, студентів, викладачів університетів, дослідників, а також надає доступ до продуктів та послуг у мережі інтернет, опубліковані роз’яснення для авторів.
Відправною точкою політики видавництва є розуміння авторства як визнання виконаної роботи, відповідальності за одержані результати, та невід’ємної складової академічної кар’єри. Питання авторства постійно перебувають у центрі уваги, відповідні норми з плином часу зазнають змін. Крім того, визначення авторства залежить від галузі знань і не може бути універсальним. Різні дисципліни використовують специфічні підходи, наприклад, у галузі біомедицини прийняті правила Міжнародного комітету редакторів медичних журналів ICMJE, у галузі психології – Американської психологічної асоціації APA, у хімії – Європейського хімічного товариства EuChemS. Тим не менш, мінімальні загальновизнані вимоги до авторства полягають у тому, щоб автор зробив суттєвий внесок у дослідження та ніс відповідальність за виконану роботу. Більш детальний опис загальних підходів міститься у Дискусійному документі COPE про авторство.
Журнали повинні повідомляти всіх авторів про те, що вони отримали рукопис, а для підвищення прозорості – публікувати «звіти про вклад авторів», де пояснюється, який саме внесок зробив кожен автор у спільну роботу, як це передбачено «Таксономії ролей учасників» від CRediT.
У рамках загального тексту про публікаційну етику Wiley виокремлює питання «контенту, створеного штучним інтелектом». Зокрема вказується, що інструменти, які використовують генеративний штучний інтелект і великі мовні моделі (як, наприклад, ChatGPT), не можна вважати здатними ініціювати оригінальне дослідження без керівництва авторів-людей. Вони також не можуть відповідати за опубліковану роботу або дизайн дослідження, що зазвичай є вимогою авторства і при цьому вони не мають юридичного статусу або здатності володіти або передавати авторські права. Тому Wiley, посилаючись на заяву про позицію COPE щодо інструментів ШІ, не розглядає такі інструменти в якості автора і не приймає матеріали, де ШІ вказаний як автор. Проте, якщо автор використовував такий інструмент для розробки будь-якої частини рукопису, це має бути детально та прозоро описано у розділі «Методи» або «Подяки». Автор несе повну відповідальність за точність будь-якої інформації, що надається інструментом ШІ, а також за коректність посилань на першоджерела. Інструменти, які використовуються для покращення орфографії, граматики та загального редагування, не входять до сфери дії цих рекомендацій. Остаточне рішення про те, чи використання інструменту ШІ є доречним або припустимим у контексті представленого дослідження, приймається редактором журналу або іншою особою, відповідальною за редакційну політику.
Окремі журнали та видавці можуть мати власні підходи, які забезпечують прозорість авторського внеску та процедури вирішення спорів.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-08
МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ

МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ

Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.

Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.
Поява фальшивих статей і систематичне маніпулювання експертною оцінкою з боку окремих осіб та організацій спонукали редакторів і видавців до вжиття відповідних заходів. Однак поки що виявлення фальшивих робіт залишається складною справою. Продовжують створюватись публікаційні фабрики (виробники і торговці фальшивих рукописів, що імітують справжні дослідження), розвиваються інструменти для написання й узагальнення текстів і створення зображень.
Розуміючи гостроту проблем, які постали перед академічною спільнотою, Комитет з публикаційної етики (COPE) 23 березня 2023 р. провів форум із обговорення етики використання штучного інтелекту. Під час заходу розглядались наступні питання: 1) чи прийнятною та етичною є практика використання ШІ для написання наукової статті; 2) чи можна визначити залучення ШІ до написання статті; 3) чи можна вважати оригінальною статтю, написану ШІ, навченим на існуючих статтях; 4) які наслідки матиме створення текстів штучним інтелектом для антиплагіатних розслідувань і перевірок; 5) чи може «антиплагіатна» перевірка виконуватись виключно спеціальними інструментами ШІ; 6) які ризики можуть виникати у разі написання штучним інтелектом рецензій; 7) як забезпечити справедливість та інклюзію для вчених з обмеженими можливостями, які використовують інструменти ШІ в якості допоміжної чи адаптивної технології. Основні коментарі з форуму у перекладі, близькому до суті оригінальної публікації, наведені нижче.
Інструменти штучного інтелекту вже використовуються науковими видавництвами під час перевірок, що передують рецензуванню (якість мови, відповідність тематиці журналу) та у рамках експертного оцінювання (визначення рецензентів, перевірка даних). Разом із тим, не можна нехтувати тим, що ці інструменти можуть застосовуватись недоброчесно (наприклад, для створення цілих статей або зображень). Позиція COPE відносно штучного інтелекту була нещодавно оприлюднена. Зокрема, такі інструменти, як ChatGPT, не можуть відповідати критеріям ICMJE щодо авторства, а їх використання має бути прозоро декларовано. Інструменти виявлення запозичень знаходяться у стадії розробки. CrossRef разом із Turnitin/iThenticate тривалий час працюють над виявленням плагіату ідей, розробляють інструменти для виявлення маніпуляцій із зображеннями. Важливим є питання про те, чи можна вважати згенерований штучним інтелектом текст оригінальним, тим більше, що інструмент сам постійно навчається. COPE наголошує, що у всякому разі кінцева відповідальність за результати дослідження та матеріали статті належить людині-автору. Багато гострих проблем пов’язано з нетекстовим вмістом – зображеннями та ідеями. Тому посилання на джерело є як ніколи раніше важливим, навіть ключовим: видавці повинні очікувати, що увесь вміст створено людьми-авторами, якщо немає заяви про протилежне. Інструменти штучного інтелекту використовуються для створення оригінальних оглядових статей, але важливо, щоб автор надавав точні та коректні посилання. На це особливу увагу мають звертати рецензенти та редактори у процесі рецензування наукових праць. Часткова або повна відмова від контролю над створенням контенту не звільняє автора від відповідальності, у т.ч. відповідальності за будь-яке порушення авторських прав.
Використання інструментів штучного інтелекту за своєю суттю не є неетичним і може бути корисним, наприклад, для авторів, які не пишуть англійською як рідною мовою, які мають проблеми з навчанням або змушені долати інші труднощі з письмом. У цьому відношенні штучний інтелект може бути корисною допоміжною або адаптивною технологією. Але на використання цих інструментів обов’язково слід вказувати; уся повнота відповідальності залишається за людиною-автором/укладачем.
Інструменти штучного інтелекту можуть бути корисними у процесі здійснення експертної оцінки. Разом із тим, отриманий таким чином звіт може бути лише допоміжним для людей-експертів у їхній експертній діяльності.
ЗВО наразі працюють над правилами використання інструментів ШІ. Але відповідні політики у різних закладах освіти можуть бути різними.
Редактори та автори наукових публікацій повинні враховувати ступінь допомоги, яку надає інструмент ШІ. Так, інструменти перекладу та виправлення граматики отримали широке розповсюдження і навряд чи потребують від їх користувачів відповідної публічної декларації про використання. Однак там, де інструмент допомагає безпосередньо у створенні контенту, проведенні аналізу, здійснює перефразування, – має бути забезпечена максимальна прозорість: такі моменти потрібно обов’язково описувати, називати задіяний інструмент та вказувати версію, що була використана.
Таким чином, які б інструменти автор не залучав під час власних досліджень, основний принцип дотримання академічної етики полягає у тому, що саме людина-автор несе відповідальність за отриманий результат та його оригінальність.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-04
CAMBRIDGE UNIVERSITY PRESS ТА ПОЛІТИКА ЩОДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

CAMBRIDGE UNIVERSITY PRESS ТА ПОЛІТИКА ЩОДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

14 березня 2023 року видавництво Кембриджського університету (Cambridge University Press / CUP), яке має визнану репутацію в академічному світі та щороку публікує близько 400 журналів та 1500 монографій, оприлюднило власні керівні принципи щодо використання штучного інтелекту та великих мовних моделей

14 березня 2023 року видавництво Кембриджського університету (Cambridge University Press / CUP), яке має визнану репутацію в академічному світі та щороку публікує близько 400 журналів та 1500 монографій, оприлюднило власні керівні принципи щодо використання штучного інтелекту та великих мовних моделей у наукових публікаціях.
Ці рекомендації увійшли окремим підрозділом до розділу “Авторство і співавторство” у складі “Керівництва з етики наукових публікацій для журналів”. Правила визначають відношення CUP до нових інструментів, які наразі отримують широке розповсюдження у всіх сферах людської діяльності. Зокрема, у підрозділі “Внесок штучного інтелекту у наукові дослідження” містяться наступні положення. “Використання штучного інтелекту має бути зазначене та чітко описане у роботах, що представляють результати наукових досліджень, так само, як це традиційно роблять з іншим програмним забезпеченням, інструментами та методами. Штучний інтелект не відповідає вимогам Кембриджу щодо авторства. Інструменти штучного інтелекту та великі мовні моделі не можуть бути вказані в якості авторів будь-яких наукових робіт, опублікованих Кембриджем. Автори несуть відповідальність за точність, цілісність та оригінальність своїх наукових робіт, у тому числі – за будь-яке використання штучного інтелекту. Використання штучного інтелекту жодним чином не може порушувати політику Кембриджу щодо плагіату. Наукові роботи мають належати безпосередньо їх авторам і не можуть представляти чужі ідеї, дані, слова або інші матеріали без належного цитування та прозорих посилань. Окремі журнали видавництва також можуть мати більш конкретні вимоги або рекомендації щодо дотримання цієї політики”.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-02
ДЕТЕКТОРИ ТЕКСТУ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ

ДЕТЕКТОРИ ТЕКСТУ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ

На сайті Times Higher Education опублікована стаття Мігеля де Карвальо «Детектори тексту зі штучним інтелектом: сходи в рай чи пекло?».

На сайті Times Higher Education опублікована стаття Мігеля де Карвальо «Детектори тексту зі штучним інтелектом: сходи в рай чи пекло?».
У ній наголошується, що поява GPTZero, текстового класифікатора OpenAI та детектора штучного інтелекту Turnitin створює ризик надмірної залежності від класифікаторів штучного інтелекту. Автор розмірковує: чи є вони рішенням проблеми чи самі стають ще однією проблемою, яка потребує вирішення? Він звертає увагу на твердження, що класифікатори текстів на основі штучного інтелекту здатні перевірити, ким саме був написаний текст – людиною або ШІ. Їх розробляють OpenAI, Turnitin, GPTZero тощо. Очевидно, що створення таких потужних інструментів можна лише вітати, ураховуючи нинішнє широке використання ChatGPT. Разом із тим, як і у випадку з будь-яким інструментом ШІ, є ряд ризиків, пов’язаних з використанням цих систем. Основний серед них – ризик надмірної довіри, сліпого прийняття користувачами рекомендацій штучного інтелекту, які можуть бути помилковими. Мігель де Карвальо аналізує питання довіри та розглядає показники ефективності використання ШІ. Незалежно від потенціалу класифікаторів, вони ніколи не мають сприйматися як безпомилкові оракули, які точно класифікують весь текст. Якщо університети збираються широко використовувати ці інструменти для оцінювання результатів навчання, то потрібно запроваджувати додаткові програми підготовки науково-педагогічного персоналу для забезпечення коректної інтеграції цих інструментів у освітній процес.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-27
ОЕСР: МОВНІ МОДЕЛІ ШТУЧНОГО ІНТЕЛЕКТУ

ОЕСР: МОВНІ МОДЕЛІ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Мовні моделі штучного інтелекту: технологічні, соціально-економічні та політичні міркування» із серії «Документи ОЕСР із цифрової економіки».

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Мовні моделі штучного інтелекту: технологічні, соціально-економічні та політичні міркування» із серії «Документи ОЕСР із цифрової економіки».
У звіті наголошується, що мовні моделі штучного інтелекту є ключовим компонентом обробки природної мови в галузі штучного інтелекту, який дозволяє комп’ютерам розуміти та генерувати людську мову. Мовні моделі та інші підходи NLP включають розробку алгоритмів, які забезпечують обробку, аналіз та генерування тексту, навчені на величезних обсягах даних із використанням методів, що варіюються від підходів, заснованих на правилах, до статистичних моделей та глибокого навчання. Застосування мовних моделей різноманітне і включає написання тексту, мовний переклад, чат-боти, віртуальних помічників, розпізнавання мови. У звіті представлений огляд мовної моделі ШІ та ландшафту NLP, а також поточні та нові політичні заходи з різних країн світу.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-26
ПОЛІТИКА З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

ПОЛІТИКА З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Times Higher Education опублікована стаття Джека Гроува «Видавництво Кембриджського університету опублікувало першу політику з етики ШІ».

На сайті Times Higher Education опублікована стаття Джека Гроува «Видавництво Кембриджського університету опублікувало першу політику з етики ШІ».
У ній наголошується: нові рекомендації щодо використання ChatGPT враховують проблеми плагіату та суперечки щодо авторства, викликані розвитком генеративного ШІ. Автор зазначає, що згідно з правилами, опублікованими видавництвом, дослідникам буде заборонено ставитися до ШІ як до «автора» академічних статей і книг після нещодавніх суперечок, в яких ChatGPT був вказаний як автор у кількох журналах. Правила CUP, який публікує близько 400 журналів і 1500 монографій на рік, також мають на меті прояснити сірі зони, де генерація тексту штучним інтелектом призводить до плагіату, іноді ненавмисно. Автори будуть «нести відповідальність за точність, цілісність і оригінальність своїх наукових робіт, в тому числі за будь-яке використання ШІ». У статті також наводяться думки Менді Хілл, керуючого директора з академічних питань CUP, яка зазначила, що політика етики ШІ була розроблена для того, щоб надати впевненості дослідникам, які бажають використовувати ChatGPT та інші інструменти ШІ та професора Альвареса, співредактора видання CUP «Кількісні та обчислювальні методи в соціальних науках», який вважає, що поява генеративного ШІ ставить багато питань перед академічними дослідниками і викладачами щодо можливостей і пасток, які представляє генеративний ШІ для академічних публікацій на довгі роки вперед.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-19
ОЕСР: ПОРТРЕТ КОРИСТУВАЧІВ ШІ В РІЗНИХ КРАЇНАХ

ОЕСР: ПОРТРЕТ КОРИСТУВАЧІВ ШІ В РІЗНИХ КРАЇНАХ

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Портрет користувачів штучного інтелекту в різних країнах: характеристики компаній, взаємодоповнюваність активів і продуктивність» із серії «Робочі документи ОЕСР з науки, технологій та промисловості».

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Портрет користувачів штучного інтелекту в різних країнах: характеристики компаній, взаємодоповнюваність активів і продуктивність» із серії «Робочі документи ОЕСР з науки, технологій та промисловості».
У звіті аналізується використання штучного інтелекту у компаніях з 11 країн. На основі узгодженого статистичного коду, що застосовується до офіційних обстежень на рівні компаній, зроблено висновок, що використання ШІ переважає у сфері ІКТ та професійних послуг і більш поширене у великих і молодих фірмах. Користувачі штучного інтелекту, як правило, продуктивніші, особливо найбільші фірми. Додаткові активи, у тому числі навички ІКТ, високошвидкісна цифрова інфраструктура та використання інших цифрових технологій, які значною мірою пов’язані з використанням ШІ, відіграють вирішальну роль у підвищенні продуктивності користувачів ШІ. Цей звіт, підготовлений в рамках проекту ОЕСР «Штучний інтелект у роботі, інноваціях, продуктивності та навичках» (AI-WIPS), надає політикам нові дані та аналіз змін в можливостях і розповсюдженні штучного інтелекту та їхні наслідки для сфери праці.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-18
ОЕСР: ЗНАЧЕННЯ ТЕХНОЛОГІЙ МАШИННОГО ПЕРЕКЛАДУ ДЛЯ ЛІНГВІСТІВ ТА СУСПІЛЬСТВА

ОЕСР: ЗНАЧЕННЯ ТЕХНОЛОГІЙ МАШИННОГО ПЕРЕКЛАДУ ДЛЯ ЛІНГВІСТІВ ТА СУСПІЛЬСТВА

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Не втрачається під час перекладу: значення технологій машинного перекладу для лінгвістів та суспільства загалом» із серії «Робочі документи ОЕСР із соціальної сфери, зайнятості та міграції».

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Не втрачається під час перекладу: значення технологій машинного перекладу для лінгвістів та суспільства загалом» із серії «Робочі документи ОЕСР із соціальної сфери, зайнятості та міграції».
У документі обговорюються наслідки останніх досягнень у галузі штучного інтелекту для працівників розумової праці з акцентом на можливу взаємодоповнюваність та заміну між інструментами машинного перекладу та лінгвістами. Поява інструментів машинного перекладу може покращити соціальний добробут за рахунок розширення можливостей для міжмовного спілкування, але також створити нові загрози через низькі рівні точності та якості перекладів, що зберігаються. У документі використовуються дані про вакансії в інтернеті, щоб відобразити еволюцію попиту на фахівців з мови в період з 2015 по 2019 рік у 10 країнах, і ілюструється набір навичок, які роботодавці вважають важливими для найму фахівців з мови шляхом розміщення вакансій в інтернеті.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-17
ШТУЧНИЙ ІНТЕЛЕКТ ЧИ ВІРТУАЛЬНА РЕАЛЬНІСТЬ

ШТУЧНИЙ ІНТЕЛЕКТ ЧИ ВІРТУАЛЬНА РЕАЛЬНІСТЬ

На сайті Times Higher Education опублікована стаття Мартіна Брауна, Пилипаа Поронника, Клаудіо Корвалан-Діаса, Вільяма Гавелласа «ШІ чи VR: поєднання нових технологій із реальним навчанням».

На сайті Times Higher Education опублікована стаття Мартіна Брауна, Пилипаа Поронника, Клаудіо Корвалан-Діаса, Вільяма Гавелласа «ШІ чи VR: поєднання нових технологій із реальним навчанням».
Наголошується, що визначення проблеми може визначати найкращу технологію для забезпечення реалістичного навчального середовища. Розрив між тим, чому навчають, і тим, що потрібно роботодавцям, швидко збільшується. Ця проблема полягає не лише в умінні використовувати сучасні технології, але й у ефективній освіті щодо співпраці та здатності адаптуватися до змін. У статті наводиться приклад вирішення цієї проблеми в університеті Сіднея, у медіа-лабораторії якого розробляються підходи до створення навчального середовища, яке було б максимально наближене до середовища практики та тестуються нові технології забезпечення більш ефективного навчального досвіду. В основі прийняття рішень закладені вирішення педагогічних проблем освітян, прозорість та доступність технологій та робота з викладачами над розробкою технічних рішень. Таким чином, медіа-лабораторія FMH працює як ресурс для викладачів, роблячи нові технології навчання доступними, щоб інтегруватися з поточною практикою, підтримувати її та надавати більше емпіричного досвіду навчання.
Детальніше: https://bit.ly/3ob6ssU
Фото: університеті Сіднея
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-13
ОБ’ЄДНАННЯ УЧНІВ, ВИКЛАДАЧІВ ТА ШТУЧНОГО ІНТЕЛЕКТУ

ОБ’ЄДНАННЯ УЧНІВ, ВИКЛАДАЧІВ ТА ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Times Higher Education опублікована стаття Ізабель Фішер «Педагогічна парадигма 4,0: об’єднання учнів, викладачів та штучного інтелекту».

На сайті Times Higher Education опублікована стаття Ізабель Фішер «Педагогічна парадигма 4,0: об’єднання учнів, викладачів та штучного інтелекту».
У ній автор розглядає питання: як університетам слід орієнтуватися в тріаді студентів, викладачів і додатків на основі штучного інтелекту та пропонує свої бачення. Наголошується: незважаючи на те, що різні програми ШІ, такі як обробка природної мови та машинне навчання, зараз не включені в усі навчальні програми та не є стратегічною дорожньою картою більшості закладів, вони відіграють важливу роль у навчанні студентів. Генеративний ШІ, такий як ChatGPT, застосував у порядку денному нову педагогічну парадигму, яка міцно пов’язує студентів та викладачів зі ШІ. Автор наводить п’ять блоків будування цих відносин у рамках нової педагогічної парадигми, які включають: визначення великого виклику або загальної проблеми; бачення цілі; інструменти та методи; етику. Ізабель Фішер вважає, що ШІ створює ризики та виклики, але також пропонує трансформаційний потенціал. Успішне впровадження штучного інтелекту вимагає відповідного культурного середовища. У майбутньому важливо знайти правильний баланс між суворістю, з одного боку, і доречністю з пом’якшеними ризиками, з іншого боку. Це та ефективна співпраця між університетами забезпечать ідеальне положення для розробки «AI for good».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-12