МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ

МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ

Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.

Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.
Поява фальшивих статей і систематичне маніпулювання експертною оцінкою з боку окремих осіб та організацій спонукали редакторів і видавців до вжиття відповідних заходів. Однак поки що виявлення фальшивих робіт залишається складною справою. Продовжують створюватись публікаційні фабрики (виробники і торговці фальшивих рукописів, що імітують справжні дослідження), розвиваються інструменти для написання й узагальнення текстів і створення зображень.
Розуміючи гостроту проблем, які постали перед академічною спільнотою, Комитет з публикаційної етики (COPE) 23 березня 2023 р. провів форум із обговорення етики використання штучного інтелекту. Під час заходу розглядались наступні питання: 1) чи прийнятною та етичною є практика використання ШІ для написання наукової статті; 2) чи можна визначити залучення ШІ до написання статті; 3) чи можна вважати оригінальною статтю, написану ШІ, навченим на існуючих статтях; 4) які наслідки матиме створення текстів штучним інтелектом для антиплагіатних розслідувань і перевірок; 5) чи може «антиплагіатна» перевірка виконуватись виключно спеціальними інструментами ШІ; 6) які ризики можуть виникати у разі написання штучним інтелектом рецензій; 7) як забезпечити справедливість та інклюзію для вчених з обмеженими можливостями, які використовують інструменти ШІ в якості допоміжної чи адаптивної технології. Основні коментарі з форуму у перекладі, близькому до суті оригінальної публікації, наведені нижче.
Інструменти штучного інтелекту вже використовуються науковими видавництвами під час перевірок, що передують рецензуванню (якість мови, відповідність тематиці журналу) та у рамках експертного оцінювання (визначення рецензентів, перевірка даних). Разом із тим, не можна нехтувати тим, що ці інструменти можуть застосовуватись недоброчесно (наприклад, для створення цілих статей або зображень). Позиція COPE відносно штучного інтелекту була нещодавно оприлюднена. Зокрема, такі інструменти, як ChatGPT, не можуть відповідати критеріям ICMJE щодо авторства, а їх використання має бути прозоро декларовано. Інструменти виявлення запозичень знаходяться у стадії розробки. CrossRef разом із Turnitin/iThenticate тривалий час працюють над виявленням плагіату ідей, розробляють інструменти для виявлення маніпуляцій із зображеннями. Важливим є питання про те, чи можна вважати згенерований штучним інтелектом текст оригінальним, тим більше, що інструмент сам постійно навчається. COPE наголошує, що у всякому разі кінцева відповідальність за результати дослідження та матеріали статті належить людині-автору. Багато гострих проблем пов’язано з нетекстовим вмістом – зображеннями та ідеями. Тому посилання на джерело є як ніколи раніше важливим, навіть ключовим: видавці повинні очікувати, що увесь вміст створено людьми-авторами, якщо немає заяви про протилежне. Інструменти штучного інтелекту використовуються для створення оригінальних оглядових статей, але важливо, щоб автор надавав точні та коректні посилання. На це особливу увагу мають звертати рецензенти та редактори у процесі рецензування наукових праць. Часткова або повна відмова від контролю над створенням контенту не звільняє автора від відповідальності, у т.ч. відповідальності за будь-яке порушення авторських прав.
Використання інструментів штучного інтелекту за своєю суттю не є неетичним і може бути корисним, наприклад, для авторів, які не пишуть англійською як рідною мовою, які мають проблеми з навчанням або змушені долати інші труднощі з письмом. У цьому відношенні штучний інтелект може бути корисною допоміжною або адаптивною технологією. Але на використання цих інструментів обов’язково слід вказувати; уся повнота відповідальності залишається за людиною-автором/укладачем.
Інструменти штучного інтелекту можуть бути корисними у процесі здійснення експертної оцінки. Разом із тим, отриманий таким чином звіт може бути лише допоміжним для людей-експертів у їхній експертній діяльності.
ЗВО наразі працюють над правилами використання інструментів ШІ. Але відповідні політики у різних закладах освіти можуть бути різними.
Редактори та автори наукових публікацій повинні враховувати ступінь допомоги, яку надає інструмент ШІ. Так, інструменти перекладу та виправлення граматики отримали широке розповсюдження і навряд чи потребують від їх користувачів відповідної публічної декларації про використання. Однак там, де інструмент допомагає безпосередньо у створенні контенту, проведенні аналізу, здійснює перефразування, – має бути забезпечена максимальна прозорість: такі моменти потрібно обов’язково описувати, називати задіяний інструмент та вказувати версію, що була використана.
Таким чином, які б інструменти автор не залучав під час власних досліджень, основний принцип дотримання академічної етики полягає у тому, що саме людина-автор несе відповідальність за отриманий результат та його оригінальність.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-04
Поширити
CAMBRIDGE UNIVERSITY PRESS ТА ПОЛІТИКА ЩОДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

CAMBRIDGE UNIVERSITY PRESS ТА ПОЛІТИКА ЩОДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

14 березня 2023 року видавництво Кембриджського університету (Cambridge University Press / CUP), яке має визнану репутацію в академічному світі та щороку публікує близько 400 журналів та 1500 монографій, оприлюднило власні керівні принципи щодо використання штучного інтелекту та великих мовних моделей у наукових публікаціях.

14 березня 2023 року видавництво Кембриджського університету (Cambridge University Press / CUP), яке має визнану репутацію в академічному світі та щороку публікує близько 400 журналів та 1500 монографій, оприлюднило власні керівні принципи щодо використання штучного інтелекту та великих мовних моделей у наукових публікаціях.
Ці рекомендації увійшли окремим підрозділом до розділу “Авторство і співавторство” у складі “Керівництва з етики наукових публікацій для журналів”. Правила визначають відношення CUP до нових інструментів, які наразі отримують широке розповсюдження у всіх сферах людської діяльності. Зокрема, у підрозділі “Внесок штучного інтелекту у наукові дослідження” містяться наступні положення. “Використання штучного інтелекту має бути зазначене та чітко описане у роботах, що представляють результати наукових досліджень, так само, як це традиційно роблять з іншим програмним забезпеченням, інструментами та методами. Штучний інтелект не відповідає вимогам Кембриджу щодо авторства. Інструменти штучного інтелекту та великі мовні моделі не можуть бути вказані в якості авторів будь-яких наукових робіт, опублікованих Кембриджем. Автори несуть відповідальність за точність, цілісність та оригінальність своїх наукових робіт, у тому числі – за будь-яке використання штучного інтелекту. Використання штучного інтелекту жодним чином не може порушувати політику Кембриджу щодо плагіату. Наукові роботи мають належати безпосередньо їх авторам і не можуть представляти чужі ідеї, дані, слова або інші матеріали без належного цитування та прозорих посилань. Окремі журнали видавництва також можуть мати більш конкретні вимоги або рекомендації щодо дотримання цієї політики”.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-02
Поширити
DIGITAL EDUCATION ACCELERATOR

DIGITAL EDUCATION ACCELERATOR

У червні 2023 року розпочнеться друга програма Digital Education Accelerator для інноваторів цифрової освіти.

У червні 2023 року розпочнеться друга програма Digital Education Accelerator для інноваторів цифрової освіти.
Програма орієнтована на допомогу українському сектору освіти шляхом підтримки команд з інноваційними проєктами, які вийшли на етап створення прототипів. Пріоритети поточного набору: інтероперабельність, штучний інтелект у цифровій освіті. Тим, хто у процесі попереднього відбору заявок буде визнаний кращим, запропонують інтенсивне навчання, менторство, нададуть можливості для тестування прототипів у інноваційному середовищі, підтримають масштабування інновацій та допоможуть у створенні спільнот. Організатор – Європейський акселератор цифрової освіти. Заявку на участь у програмі можна подати до 15 травня 2023 року.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_Інноваторам_новини
2023-05-01
Поширити
ІННОВАЦІЙНІ ФУНКЦІЇ MOOC, ЯКІ СПРИЯЮТЬ ЗАЛУЧЕНОСТІ СТУДЕНТІВ

ІННОВАЦІЙНІ ФУНКЦІЇ MOOC, ЯКІ СПРИЯЮТЬ ЗАЛУЧЕНОСТІ СТУДЕНТІВ

На сайті Times Higher Education опублікована стаття Темесгена Кіфле та Бена Коссалтера «Три функції, які зроблять ваш MOOC особливим».

На сайті Times Higher Education опублікована стаття Темесгена Кіфле та Бена Коссалтера «Три функції, які зроблять ваш MOOC особливим».
Автори наголошують, що розробники масових освітніх курсів та викладачі мають орієнтуватись у першу чергу на створення цінності для студентів. Для підтвердження цієї думки вони розглядають історію MOOC. У 2008 році було розроблено перший масовий відкритий онлайн-курс «Connectivism &Connective Knowledge», який зібрав 2 тис. слухачів. Через три роки Стенфордський університет запропонував курс «Вступ до штучного інтелекту», який зацікавив вже 160 тис. слухачів. Наразі понад 1,2 тис. університетів у світі пропонують безкоштовні онлайн-курси на платформах Coursera, edX, FutureLearn, Udacity. А чим більшою є пропозиція, тим вищою виявляється й конкуренція за учнів. У підвищенні конкурентоспроможності може допомогти, на думку авторів статті, створення віртуальної спільноти; доповнення присутності викладача штучними носіями-аватарами; створення опорних плакатів з висвітленням ключових моментів лекції. Використання цих та інших методів може стати перевагою курсу, допоможе університетам у просуванні їх брендів, створенні репутації, отриманні доходів, а також дозволить покращити традиційні моделі навчання.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_Освітянам_новини
2023-05-01
Поширити
ДЕТЕКТОРИ ТЕКСТУ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ

ДЕТЕКТОРИ ТЕКСТУ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ

На сайті Times Higher Education опублікована стаття Мігеля де Карвальо «Детектори тексту зі штучним інтелектом: сходи в рай чи пекло?».

На сайті Times Higher Education опублікована стаття Мігеля де Карвальо «Детектори тексту зі штучним інтелектом: сходи в рай чи пекло?».
У ній наголошується, що поява GPTZero, текстового класифікатора OpenAI та детектора штучного інтелекту Turnitin створює ризик надмірної залежності від класифікаторів штучного інтелекту. Автор розмірковує: чи є вони рішенням проблеми чи самі стають ще однією проблемою, яка потребує вирішення? Він звертає увагу на твердження, що класифікатори текстів на основі штучного інтелекту здатні перевірити, ким саме був написаний текст – людиною або ШІ. Їх розробляють OpenAI, Turnitin, GPTZero тощо. Очевидно, що створення таких потужних інструментів можна лише вітати, ураховуючи нинішнє широке використання ChatGPT. Разом із тим, як і у випадку з будь-яким інструментом ШІ, є ряд ризиків, пов’язаних з використанням цих систем. Основний серед них – ризик надмірної довіри, сліпого прийняття користувачами рекомендацій штучного інтелекту, які можуть бути помилковими. Мігель де Карвальо аналізує питання довіри та розглядає показники ефективності використання ШІ. Незалежно від потенціалу класифікаторів, вони ніколи не мають сприйматися як безпомилкові оракули, які точно класифікують весь текст. Якщо університети збираються широко використовувати ці інструменти для оцінювання результатів навчання, то потрібно запроваджувати додаткові програми підготовки науково-педагогічного персоналу для забезпечення коректної інтеграції цих інструментів у освітній процес.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-27
Поширити
ОЕСР: МОВНІ МОДЕЛІ ШТУЧНОГО ІНТЕЛЕКТУ

ОЕСР: МОВНІ МОДЕЛІ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Мовні моделі штучного інтелекту: технологічні, соціально-економічні та політичні міркування» із серії «Документи ОЕСР із цифрової економіки».

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Мовні моделі штучного інтелекту: технологічні, соціально-економічні та політичні міркування» із серії «Документи ОЕСР із цифрової економіки».
У звіті наголошується, що мовні моделі штучного інтелекту є ключовим компонентом обробки природної мови в галузі штучного інтелекту, який дозволяє комп’ютерам розуміти та генерувати людську мову. Мовні моделі та інші підходи NLP включають розробку алгоритмів, які забезпечують обробку, аналіз та генерування тексту, навчені на величезних обсягах даних із використанням методів, що варіюються від підходів, заснованих на правилах, до статистичних моделей та глибокого навчання. Застосування мовних моделей різноманітне і включає написання тексту, мовний переклад, чат-боти, віртуальних помічників, розпізнавання мови. У звіті представлений огляд мовної моделі ШІ та ландшафту NLP, а також поточні та нові політичні заходи з різних країн світу.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-26
Поширити
ГРУПОВА РОБОТА НЕ ТІЛЬКИ ДЛЯ СТУДЕНТІВ

ГРУПОВА РОБОТА НЕ ТІЛЬКИ ДЛЯ СТУДЕНТІВ

На сайті Міжнародного центру академічної доброчесності опубліковано стаття Дженні Мірон «Групова робота не тільки для студентів».

На сайті Міжнародного центру академічної доброчесності опубліковано стаття Дженні Мірон «Групова робота не тільки для студентів».
У ній наголошується, що робота в групах покликана підтримувати та розвивати креативність, продуктивність і співпрацю між студентами. Але переваги групової роботи не обмежуються студентською роботою. Йдеться про роботу членів Ради академічної доброчесності Онтаріо (AICO) щодо створення документу «Підтримка академічної доброчесності: інформаційний бюлетень «Етичне використання штучного інтелекту у вищій освіті». Документ містить огляд питання, визначення штучного інтелекту, міркування зацікавлених сторін щодо етичного використання штучного інтелекту у вищій освіті, обговорення питань оцінювання, можливостей використання додатків штучного інтелекту, зауваження щодо обмежень штучного інтелекту, а також міркування, пов’язані з питаннями цитування/визнання. На думку автора, виконання цієї роботи в групі дало можливість використати досвід кожного члена групи, дискутувати, критично мислити і працювати разом для досягнення спільної мети. Це також створило міцніші мережі, стосунки та зв’язки між окремими членами AICO, оскільки основна частина роботи була виконана колегіально. Робота, пов’язана зі створенням такого документа, була менш складною завдяки зусиллям групи.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_АкадемДоброчесність_новини
2023-04-19
Поширити
ПОЛІТИКА З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

ПОЛІТИКА З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Times Higher Education опублікована стаття Джека Гроува «Видавництво Кембриджського університету опублікувало першу політику з етики ШІ».

На сайті Times Higher Education опублікована стаття Джека Гроува «Видавництво Кембриджського університету опублікувало першу політику з етики ШІ».
У ній наголошується: нові рекомендації щодо використання ChatGPT враховують проблеми плагіату та суперечки щодо авторства, викликані розвитком генеративного ШІ. Автор зазначає, що згідно з правилами, опублікованими видавництвом, дослідникам буде заборонено ставитися до ШІ як до «автора» академічних статей і книг після нещодавніх суперечок, в яких ChatGPT був вказаний як автор у кількох журналах. Правила CUP, який публікує близько 400 журналів і 1500 монографій на рік, також мають на меті прояснити сірі зони, де генерація тексту штучним інтелектом призводить до плагіату, іноді ненавмисно. Автори будуть «нести відповідальність за точність, цілісність і оригінальність своїх наукових робіт, в тому числі за будь-яке використання ШІ». У статті також наводяться думки Менді Хілл, керуючого директора з академічних питань CUP, яка зазначила, що політика етики ШІ була розроблена для того, щоб надати впевненості дослідникам, які бажають використовувати ChatGPT та інші інструменти ШІ та професора Альвареса, співредактора видання CUP «Кількісні та обчислювальні методи в соціальних науках», який вважає, що поява генеративного ШІ ставить багато питань перед академічними дослідниками і викладачами щодо можливостей і пасток, які представляє генеративний ШІ для академічних публікацій на довгі роки вперед.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-19
Поширити
ОЕСР: ПОРТРЕТ КОРИСТУВАЧІВ ШІ В РІЗНИХ КРАЇНАХ

ОЕСР: ПОРТРЕТ КОРИСТУВАЧІВ ШІ В РІЗНИХ КРАЇНАХ

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Портрет користувачів штучного інтелекту в різних країнах: характеристики компаній, взаємодоповнюваність активів і продуктивність» із серії «Робочі документи ОЕСР з науки, технологій та промисловості».

На сайті Організації економічного співробітництва та розвитку опубліковано звіт «Портрет користувачів штучного інтелекту в різних країнах: характеристики компаній, взаємодоповнюваність активів і продуктивність» із серії «Робочі документи ОЕСР з науки, технологій та промисловості».
У звіті аналізується використання штучного інтелекту у компаніях з 11 країн. На основі узгодженого статистичного коду, що застосовується до офіційних обстежень на рівні компаній, зроблено висновок, що використання ШІ переважає у сфері ІКТ та професійних послуг і більш поширене у великих і молодих фірмах. Користувачі штучного інтелекту, як правило, продуктивніші, особливо найбільші фірми. Додаткові активи, у тому числі навички ІКТ, високошвидкісна цифрова інфраструктура та використання інших цифрових технологій, які значною мірою пов’язані з використанням ШІ, відіграють вирішальну роль у підвищенні продуктивності користувачів ШІ. Цей звіт, підготовлений в рамках проекту ОЕСР «Штучний інтелект у роботі, інноваціях, продуктивності та навичках» (AI-WIPS), надає політикам нові дані та аналіз змін в можливостях і розповсюдженні штучного інтелекту та їхні наслідки для сфери праці.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-04-18
Поширити
АНАЛІТИЧНА СИСТЕМА GOVERNMENT BI

АНАЛІТИЧНА СИСТЕМА GOVERNMENT BI

Міністерство цифрової трансформації та Державна служба статистики створюють аналітичну платформу Government BI для якісних управлінських рішень.

Міністерство цифрової трансформації та Державна служба статистики створюють аналітичну платформу Government BI для якісних управлінських рішень.
Мінцифри стане пілотним державним органом, на базі якого пройде бета-тестування системи GBI, після завершення якого проєкт планується масштабувати на інші центральні органи виконавчої влади. За словами заступника Міністра цифрової трансформації з питань розвитку IT «великі масиви даних, динамічність подій та не завжди оперативний обмін інформацією між держорганами – усе це впливає на якість управлінських рішень. Цей процес можна оптимізувати за рахунок аналітичних інструментів. Проєкт Government BI дасть змогу державним органам оперативно збирати масиви інформації та враховувати її під час ухвалення рішень. GBI не замінить людей, але допоможе їм обробляти дані й через призму аналітики підкаже, що робити в тій чи іншій ситуації та як певне рішення вплине на показники державного розвитку і благополуччя людей». Система використовуватиме інструменти штучного інтелекту. На останніх етапах реалізації проєкту запланована розбудова інститутів BigData, які розвиватимуть систему відкритих даних, коли вся інформація від держорганів буде інтегрована між собою.
Детальніше: https://bit.ly/3olCTF6
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-04-18
Поширити