ЮНЕСКО: CHATGPT І ШТУЧНИЙ ІНТЕЛЕКТ У ВИЩИЙ ОСВІТІ

ЮНЕСКО: CHATGPT І ШТУЧНИЙ ІНТЕЛЕКТ У ВИЩИЙ ОСВІТІ

На сайті Організації Об’єднаних Націй з питань освіти, науки і культури (ЮНЕСКО) опубліковано Керівництво «ChatGPT і штучний інтелект: короткий посібник».

На сайті Організації Об’єднаних Націй з питань освіти, науки і культури (ЮНЕСКО) опубліковано Керівництво «ChatGPT і штучний інтелект: короткий посібник».
У ньому ChatGPT розглядаться як інструмент штучного інтелекту, який стрімко захопив світ, залучивши 100 мільйонів користувачів лише через два місяці після запуску. Посібник містить огляд роботи ChatGPT (безкоштовна версіїя GPT-3.5, доступна на момент написання документу) і пояснення щодо можливості його використання у вищій освіті. Також у ньому розглядаються етичні проблеми та ризики використання ШІ у вищій освіті, пропонуються практичні кроки з їх подолання чи нівелювання. Оскільки посібник було опубліковано у квітні 2023 року, а сфера штучного інтелекту постійно розвивається, читачам радять працювати з надійними джерелами.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-29
ВИКОРИСТАННЯ CHATGPT У ДОСЛІДЖЕННЯХ МОЖЕ МАТИ ДУЖЕ НЕГАТИВНІ НАСЛІДКИ

ВИКОРИСТАННЯ CHATGPT У ДОСЛІДЖЕННЯХ МОЖЕ МАТИ ДУЖЕ НЕГАТИВНІ НАСЛІДКИ

На сайті Times Higher Education опублікована стаття Дірка Ліндебаума «Дослідники, які використовують ChatGPT, схожі на індиків, які голосують на Різдво».

На сайті Times Higher Education опублікована стаття Дірка Ліндебаума «Дослідники, які використовують ChatGPT, схожі на індиків, які голосують на Різдво».
Автори звертають увагу на те, що технологія генеративного штучного інтелекту загрожує збіднити дослідження та зруйнувати здатність людей розуміти соціальний світ. З моменту запуску ChatGPT наприкінці листопада минулого року документів та статей про можливості й небезпеки ШІ для навчання та педагогіки стало багато. Але про вплив на дослідження дискусія майже не ведеться, тоді як в окремих дисциплінах суспільних наук ChatGPT вже діє як співавтор. Дослідники схвильовано стрибають на підніжку потяга ШІ, щоб встигнути використати новий інструмент та зробити дослідницький процес більш «ефективним». Однак, слід серйозно подумати як мінімум над трьома наслідками використання ChatGPT у дослідженнях. Перша проблема в тому, що використання технології для складання оглядів літератури збіднює наші власні аналітичні здібності та теоретичну уяву. Здатність розуміти поточну літературу і використовувати уяву має вирішальне значення для розв’язання теоретичних завдань, пояснень, розуміння практики. Ризик полягає в тому, що надмірна залежність від ChatGPT призведе до декваліфікації розумової сфери, зробить нас погано підготовленими до вирішення нових складних проблем. Друга проблема пов’язана з використанням ChatGPT у соціальних дослідженнях, що суттєво змінює спосіб теоретизації: технологія обробляє дані за допомогою обчислень та формальної раціональності, а не суджень та раціональності. Коли ШІ застосовується до теоретизування, він втілює припущення, що світ заснований на абстрактних та формальних процедурах, правилах та законах, які універсально застосовуються. Це – світогляд, який за твердженням Макса Вебера, завдає шкоди громадському життю. Третя проблема використання ChatGPT у дослідженнях полягає в тому, що це спотворює умови чесного та дійсно конкурентного ринку найкращих ідей. Публікації мають наукову цінність, разом із тим вони важливі для кар’єрного зростання та статусу вченого. Наявні труднощі з отриманням постійних посад породжують у людей сильну спокусу пропустити важку власну інтелектуальну роботу з обмірковування та написання добре продуманих статей у гонитві за довгим списком публікацій у резюме. Не усі готові побачити та прийняти ці ризики. Стрімкий процес залучення ChatGPT в усі види діяльності, включно з дослідницькою, дає підстави прогнозувати його широке використання у майбутньому. Тим не менш, важливо розуміти, що дослідники, зрештою можуть втратити здатність пояснювати та розуміти соціальний світ. То ж на питання «Хто хоче бути індичкою, яка голосує за це похмуре Різдво?» автори статті відповідають «Ні, нас не рахуйте».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-26
КОМЮНІКЕ ЛІДЕРІВ G7 У ХІРОСІМІ: АКТУАЛЬНІ ПИТАННЯ ЦИФРОВІЗАЦІЇ ТА ШІ

КОМЮНІКЕ ЛІДЕРІВ G7 У ХІРОСІМІ: АКТУАЛЬНІ ПИТАННЯ ЦИФРОВІЗАЦІЇ ТА ШІ

У комюніке, підписаному лідерами G7 у Хіросімі 20 травня 2023 року, розглядається широке коло питань у сфері політики, економіки, гуманітарної сфери та окремо представлене бачення перспектив розвитку науки, техніки, цифровізації і штучного інтелекту.

У комюніке, підписаному лідерами G7 у Хіросімі 20 травня 2023 року, розглядається широке коло питань у сфері політики, економіки, гуманітарної сфери та окремо представлене бачення перспектив розвитку науки, техніки, цифровізації і штучного інтелекту.
Зокрема, у частині цифровізації визнається, що технологічна трансформація зміцнює суспільства, економіку та систему управління. Але темпи технологічного розвитку прискорюються й необхідно вирішувати нові проблеми, виявляти потенційні прогалини, не припускаючись фрагментації у глобальному управлінні технологіями. У таких сферах, як штучний інтелект (ШІ), метавсесвіт та квантові технології потрібне ефективне управління на засадах справедливості, підзвітності, прозорості, безпеки, поваги до приватного життя та прав людини, основних свобод і захисту персональних даних. Необхідна співпраця з технологічними компаніями та іншими зацікавленими сторонами для забезпечення відповідального упровадження інновацій і технологій та утвердження безпеки в якості основного пріоритету. Наразі існує потреба в інклюзивному діалозі через відповідні форуми (зокрема – Глобальний технологічний форум ОЕСР) з усіма зацікавленими сторонами щодо цифрових питань. Багатосторонні підходи також важливі для розроблення стандартів штучного інтелекту на засадах поваги до юридично обов’язкових рамок, прозорості, відкритості, справедливості, неупередженості, конфіденційності та інклюзивності. G7 наголошує на важливості міжнародних дискусій щодо управління штучним інтелектом та сумісності між структурами управління ШІ й визнає, що підходи та політичні інструменти для досягнення спільного бачення надійного штучного інтелекту можуть відрізнятися між країнами. Також G7 підтримує розроблення інструментів для надійного ШІ за допомоги міжнародних організацій, буде заохочувати розробку й прийняття відповідних міжнародних технічних стандартів для ШІ. Наразі необхідно проаналізувати можливості та виклики генеративного штучного інтелекту, який стає все більш помітним у країнах і секторах, провести аналіз впливу політичних розробок і глобального партнерства. Для цього започатковується Хіросімський процес обговорення актуальних питань генеративного штучного інтелекту у форматі співпраці робочої групи G7 та ОЕСР. Основна увага буде приділена управлінню ШІ, захисту прав інтелектуальної власності (у т.ч. авторських прав), забезпеченню прозорості, реагуванню на маніпуляції інформацією, а також відповідальному використанню цих технологій. G7 вітає План дій зі сприяння глобальній сумісності між інструментами надійного штучного інтелекту та визнає потенціал технологій і віртуальних світів, для розвитку інноваційних можливостей в усіх галузях промисловості та суспільства. G7 підтверджує зацікавленість співробітництва у дослідженнях і практичних розробках комп’ютерних технологій та доручає своїм міністрам разом із ОЕСР розробити колективний підхід у цій сфері щодо сумісності, портативності та єдиних стандартів, а також шляхів подальшого сприяння цифровій торгівлі. G7 наголошує, що транскордонні потоки даних, інформації, ідей та знань створюють більшу продуктивність, більше інновацій та сприяють сталому розвитку, водночас піднімаючи проблеми, пов’язані з конфіденційністю, захистом даних, захистом інтелектуальної власності та безпекою, у т.ч. у сфері даних та хмарної інфраструктури. Необхідно й надалі сприяти вільному потоку довірчих даних для пожвавлення розвитку цифрової економіки за умов дотримання законних суспільних інтересів. G7 вітає Декларацію ОЕСР про державний доступ до персональних даних, що зберігаються суб’єктами приватного сектору, як інструмент підвищення довіри до транскордонних потоків даних і виступає проти фрагментації інтернету та використання цифрових технологій для порушення прав людини. Непересічне значення мають питання безпеки та стійкості цифрової інфраструктури. Тому буде продовжене обговорення ринкових тенденцій щодо відкритих, сумісних підходів, безпечної, стійкої та усталеної архітектури даних. G7 визнає необхідність подолання цифрового розриву та важливість ініціатив цифрової інтеграції й вирішення проблем міст («розумні міста»), сприяння інклюзивному розвитку, мобільності цифрових експертів, збільшення цифрового доступу на засадах справедливості, універсальності, доступності, безпеки, сумісності, захисту персональних даних, поваги до прав людини.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект
2023-05-22
АЖІОТАЖ НАВКОЛО CHATGPT ТА РИЗИКИ ДЛЯ НАВЧАННЯ

АЖІОТАЖ НАВКОЛО CHATGPT ТА РИЗИКИ ДЛЯ НАВЧАННЯ

На сайті Times Higher Education опублікована стаття Джона Гілла ««Експеримент» із ChatGPT становить для університетів небезпеку».

На сайті Times Higher Education опублікована стаття Джона Гілла ««Експеримент» із ChatGPT становить для університетів небезпеку».
У ній автор узагальнює погляди експертів щодо інструментів ШІ, висловлені під час публічних дискусій на конференції «Digital Universities UK». Фахівці у галузі цифрового навчання вважають, що університети досі повністю не усвідомили ризики від «експериментів» з генеративним штучним інтелектом. Нова технологія кардинально змінить підходи до викладання та способи оцінювання набутих знань. Директор із цифрового навчання Університету Арден Стюарт Аллан заявив, що це буде «проблемою лише тоді, коли ваша оцінка розрахована на запам’ятовування та узагальнення». Разом із тим він визнає, що «правові та політичні рамки ще не наздогнали технологію. Наразі ми перебуваємо у досить небезпечному становищі, коли технології ухвалюються без належного розуміння наслідків». Директорка з навчання, викладання та веб-сервісів Единбурзького університету Мелісса Хайтон зазначила: «в Единбурзі ми вітаємо наших колег-роботів, і протягом багатьох років роботи виконували для нас значну роботу, наприклад, допомагали в таких справах, як перетворення аудіо та відео на текст». Професор гібридного навчання в Університеті Манчестера Саймон Томпсон наголошує на існуванні ризику «гонки штучного інтелекту, якщо питання академічної доброчесності та оцінювання не будуть вирішені належним чином». Доктор Хайтон підтримала занепокоєння колег і разом із тим зазначила: «Ми маємо бути дуже обережними, щоб не дискримінувати студентів, які найбільше потребують допоміжних технологій».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-16
ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ

ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ

На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».

На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».
У ній наголошується, що університети повинні вирішувати питання етики та упередженості в ШІ та гарантувати, що студенти будуть «кращі, ніж ChatGPT». Автор спирається на виступ віце-президента й генерального менеджера з питань штучного інтелекту та аналітики компанії Intel доктора Вей Лі. Під час свого нещодавнього виступу на конференції «Digital Universities UK» він звернув увагу на те, що потреба у створенні «етичної основи» машинного навчання є нагальною. Адже наразі машинне навчання – це «чорна скринька»: «Ви отримуєте те, що отримуєте, і насправді не знаєте, чому саме». Наукові дослідження, на переконання одного з керівників Intel, можуть допомогти виявити фундаментальні етичні проблеми штучного інтелекту, серед яких, зокрема, вбудоване упередження. Команда фахівців Intel працює над розробкою технології, яка допоможе створити справедливі та інклюзивні системи ШІ, але промисловість більше зосереджена власне на процесі створення систем ШІ, а не на вирішенні етичних питань, які неодмінно виникатимуть. Незважаючи на нещодавній відкритий лист, підписаний експертами зі штучного інтелекту та керівниками галузі, у якому містився заклик до призупинення розробки штучного інтелекту до того моменту, поки людство «не будемо впевнене, що вплив ШІ буде позитивним, а ризики – керованими», розвиток ШІ не сповільнюється, інвестиції продовжуються, роботи тривають. Вей Лі упевнений, що «вища освіта отримала серйозний виклик і має можливість краще підготувати наступне покоління студентів у новому середовищі ШІ». Університети повинні навчати студентів бути «більше, ніж просто месенджером для ChatGPT».
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-15
ЧИ СТАНОВИТЬ ШТУЧНИЙ ІНТЕЛЕКТ ЗАГРОЗУ ДЛЯ НАВЧАННЯ І ВИКЛАДАННЯ

ЧИ СТАНОВИТЬ ШТУЧНИЙ ІНТЕЛЕКТ ЗАГРОЗУ ДЛЯ НАВЧАННЯ І ВИКЛАДАННЯ

На сайті Європейської асоціації університетів опублікована стаття Хелі Харрікарі «Величезні можливості штучного інтелекту, якщо ми навчимося його використовувати».

На сайті Європейської асоціації університетів опублікована стаття Хелі Харрікарі «Величезні можливості штучного інтелекту, якщо ми навчимося його використовувати».
У ній містяться міркування щодо того, чи становить штучний інтелект загрозу для навчання і викладання. Обґрунтовується позиція про необхідність сприйняття штучного інтелекту як складової масштабного процесу цифровізації вищої освіти, здатного створити величезні можливості для розвитку, якщо правильно його використовувати. Хелі вбачає можливості використання штучного інтелекту для набуття навичок і компетенцій, отримання даних, розробки навчальних програм, розвитку компетенцій поза навчальними аудиторіями. Вона наголошує, що «ШІ як такий – це не добре і не погано, але від людей, залежить, перетвориться він на загрозу чи на можливість. Я особисто сподіваюся, що ми лише починаємо розуміти можливості ШІ для освіти, оскільки це означає, що майбутнє сповнене можливостей. Найімовірніше, від нас, освітян, знадобляться чималі зусилля, щоб навчитися отримувати максимальну користь від ШІ, але також важко уявити, як ми, освітяни, можемо заплющити очі на події, які відбуваються просто зараз у суспільстві. Конструктивна позиція полягає у тому, щоб бути частиною змін і створювати майбутнє замість того, щоб будувати паркани».
Детальніше: https://bit.ly/3NX5tXX
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-11
РЕКОМЕНДАЦІЇ З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

РЕКОМЕНДАЦІЇ З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Організації об’єднаних націй з питань освіти, науки і культури (ЮНЕСКО) опубліковані «Рекомендації з етики штучного інтелекту: інструменти методології оцінки готовності».

На сайті Організації об’єднаних націй з питань освіти, науки і культури (ЮНЕСКО) опубліковані «Рекомендації з етики штучного інтелекту: інструменти методології оцінки готовності».
Наголошується, що світ офіційно вступив в епоху штучного інтелекту та змінюється такими високими темпами, яких до цього часу не було. Інструменти та додатки, побудовані на основі штучного інтелекту роблять суспільне життя більш простим і зручним. Але у нинішньому вигляді штучний інтелект також відтворює і посилює цілу низку соціальних проблем. Ураховуючи це, ЮНЕСКО розробила відповідні рекомендації, які були офіційно представлені під час першого Глобального форуму з етики штучного інтелекту та прийняті 193-ма країнами. Документ встановлює цінності та визначає принципи, засновані на захисті прав людини, й трансформує їх у конкретні політичні рекомендації, що ураховують всі етапи життєвого циклу ШІ. Основними елементами його імплементації будуть два ключових інструменти – Методологія оцінки готовності (RAM) та Оцінки етичного впливу (EIA). RAM охоплює п’ять вимірів: нормативно-правовий, соціальний та культурний, економічний, науково-освітній, технологічний та інфраструктурний. Кожен з них має свої підкатегорії, оцінювані за допомогою спеціальних індикаторів. RAM забезпечить порівняння різних країн для визначення передового досвіду.
Детальніше: https://bit.ly/3NRjqql
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-10
АВТОРСТВО ТА ШТУЧНИЙ ІНТЕЛЕКТ: ПУБЛІКАЦІЙНА ЕТИКА WILEY

АВТОРСТВО ТА ШТУЧНИЙ ІНТЕЛЕКТ: ПУБЛІКАЦІЙНА ЕТИКА WILEY

На сайті Wiley – міжнародного видавництва, що спеціалізується на випуску академічних видань у формі книг, журналів, енциклопедій для професіоналів, студентів, викладачів університетів, дослідників, а також надає доступ до продуктів та послуг у мережі інтернет, опубліковані роз’яснення для авторів.

На сайті Wiley – міжнародного видавництва, що спеціалізується на випуску академічних видань у формі книг, журналів, енциклопедій для професіоналів, студентів, викладачів університетів, дослідників, а також надає доступ до продуктів та послуг у мережі інтернет, опубліковані роз’яснення для авторів.
Відправною точкою політики видавництва є розуміння авторства як визнання виконаної роботи, відповідальності за одержані результати, та невід’ємної складової академічної кар’єри. Питання авторства постійно перебувають у центрі уваги, відповідні норми з плином часу зазнають змін. Крім того, визначення авторства залежить від галузі знань і не може бути універсальним. Різні дисципліни використовують специфічні підходи, наприклад, у галузі біомедицини прийняті правила Міжнародного комітету редакторів медичних журналів ICMJE, у галузі психології – Американської психологічної асоціації APA, у хімії – Європейського хімічного товариства EuChemS. Тим не менш, мінімальні загальновизнані вимоги до авторства полягають у тому, щоб автор зробив суттєвий внесок у дослідження та ніс відповідальність за виконану роботу. Більш детальний опис загальних підходів міститься у Дискусійному документі COPE про авторство.
Журнали повинні повідомляти всіх авторів про те, що вони отримали рукопис, а для підвищення прозорості – публікувати «звіти про вклад авторів», де пояснюється, який саме внесок зробив кожен автор у спільну роботу, як це передбачено «Таксономії ролей учасників» від CRediT.
У рамках загального тексту про публікаційну етику Wiley виокремлює питання «контенту, створеного штучним інтелектом». Зокрема вказується, що інструменти, які використовують генеративний штучний інтелект і великі мовні моделі (як, наприклад, ChatGPT), не можна вважати здатними ініціювати оригінальне дослідження без керівництва авторів-людей. Вони також не можуть відповідати за опубліковану роботу або дизайн дослідження, що зазвичай є вимогою авторства і при цьому вони не мають юридичного статусу або здатності володіти або передавати авторські права. Тому Wiley, посилаючись на заяву про позицію COPE щодо інструментів ШІ, не розглядає такі інструменти в якості автора і не приймає матеріали, де ШІ вказаний як автор. Проте, якщо автор використовував такий інструмент для розробки будь-якої частини рукопису, це має бути детально та прозоро описано у розділі «Методи» або «Подяки». Автор несе повну відповідальність за точність будь-якої інформації, що надається інструментом ШІ, а також за коректність посилань на першоджерела. Інструменти, які використовуються для покращення орфографії, граматики та загального редагування, не входять до сфери дії цих рекомендацій. Остаточне рішення про те, чи використання інструменту ШІ є доречним або припустимим у контексті представленого дослідження, приймається редактором журналу або іншою особою, відповідальною за редакційну політику.
Окремі журнали та видавці можуть мати власні підходи, які забезпечують прозорість авторського внеску та процедури вирішення спорів.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-08
МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ

МАТЕРІАЛИ ФОРУМУ COPE ЩОДО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПУБЛІКАЦІЙНОЇ ЕТИКИ

Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.

Масштабне використання штучного інтелекту під час написання наукових робіт останнім часом суттєво вплинуло на видавничу сферу: цей чинник стає проблемою для цілісності досліджень й вимагає застосування ефективних інструментів виявлення шахрайських дій.
Поява фальшивих статей і систематичне маніпулювання експертною оцінкою з боку окремих осіб та організацій спонукали редакторів і видавців до вжиття відповідних заходів. Однак поки що виявлення фальшивих робіт залишається складною справою. Продовжують створюватись публікаційні фабрики (виробники і торговці фальшивих рукописів, що імітують справжні дослідження), розвиваються інструменти для написання й узагальнення текстів і створення зображень.
Розуміючи гостроту проблем, які постали перед академічною спільнотою, Комитет з публикаційної етики (COPE) 23 березня 2023 р. провів форум із обговорення етики використання штучного інтелекту. Під час заходу розглядались наступні питання: 1) чи прийнятною та етичною є практика використання ШІ для написання наукової статті; 2) чи можна визначити залучення ШІ до написання статті; 3) чи можна вважати оригінальною статтю, написану ШІ, навченим на існуючих статтях; 4) які наслідки матиме створення текстів штучним інтелектом для антиплагіатних розслідувань і перевірок; 5) чи може «антиплагіатна» перевірка виконуватись виключно спеціальними інструментами ШІ; 6) які ризики можуть виникати у разі написання штучним інтелектом рецензій; 7) як забезпечити справедливість та інклюзію для вчених з обмеженими можливостями, які використовують інструменти ШІ в якості допоміжної чи адаптивної технології. Основні коментарі з форуму у перекладі, близькому до суті оригінальної публікації, наведені нижче.
Інструменти штучного інтелекту вже використовуються науковими видавництвами під час перевірок, що передують рецензуванню (якість мови, відповідність тематиці журналу) та у рамках експертного оцінювання (визначення рецензентів, перевірка даних). Разом із тим, не можна нехтувати тим, що ці інструменти можуть застосовуватись недоброчесно (наприклад, для створення цілих статей або зображень). Позиція COPE відносно штучного інтелекту була нещодавно оприлюднена. Зокрема, такі інструменти, як ChatGPT, не можуть відповідати критеріям ICMJE щодо авторства, а їх використання має бути прозоро декларовано. Інструменти виявлення запозичень знаходяться у стадії розробки. CrossRef разом із Turnitin/iThenticate тривалий час працюють над виявленням плагіату ідей, розробляють інструменти для виявлення маніпуляцій із зображеннями. Важливим є питання про те, чи можна вважати згенерований штучним інтелектом текст оригінальним, тим більше, що інструмент сам постійно навчається. COPE наголошує, що у всякому разі кінцева відповідальність за результати дослідження та матеріали статті належить людині-автору. Багато гострих проблем пов’язано з нетекстовим вмістом – зображеннями та ідеями. Тому посилання на джерело є як ніколи раніше важливим, навіть ключовим: видавці повинні очікувати, що увесь вміст створено людьми-авторами, якщо немає заяви про протилежне. Інструменти штучного інтелекту використовуються для створення оригінальних оглядових статей, але важливо, щоб автор надавав точні та коректні посилання. На це особливу увагу мають звертати рецензенти та редактори у процесі рецензування наукових праць. Часткова або повна відмова від контролю над створенням контенту не звільняє автора від відповідальності, у т.ч. відповідальності за будь-яке порушення авторських прав.
Використання інструментів штучного інтелекту за своєю суттю не є неетичним і може бути корисним, наприклад, для авторів, які не пишуть англійською як рідною мовою, які мають проблеми з навчанням або змушені долати інші труднощі з письмом. У цьому відношенні штучний інтелект може бути корисною допоміжною або адаптивною технологією. Але на використання цих інструментів обов’язково слід вказувати; уся повнота відповідальності залишається за людиною-автором/укладачем.
Інструменти штучного інтелекту можуть бути корисними у процесі здійснення експертної оцінки. Разом із тим, отриманий таким чином звіт може бути лише допоміжним для людей-експертів у їхній експертній діяльності.
ЗВО наразі працюють над правилами використання інструментів ШІ. Але відповідні політики у різних закладах освіти можуть бути різними.
Редактори та автори наукових публікацій повинні враховувати ступінь допомоги, яку надає інструмент ШІ. Так, інструменти перекладу та виправлення граматики отримали широке розповсюдження і навряд чи потребують від їх користувачів відповідної публічної декларації про використання. Однак там, де інструмент допомагає безпосередньо у створенні контенту, проведенні аналізу, здійснює перефразування, – має бути забезпечена максимальна прозорість: такі моменти потрібно обов’язково описувати, називати задіяний інструмент та вказувати версію, що була використана.
Таким чином, які б інструменти автор не залучав під час власних досліджень, основний принцип дотримання академічної етики полягає у тому, що саме людина-автор несе відповідальність за отриманий результат та його оригінальність.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-04
CAMBRIDGE UNIVERSITY PRESS ТА ПОЛІТИКА ЩОДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

CAMBRIDGE UNIVERSITY PRESS ТА ПОЛІТИКА ЩОДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

14 березня 2023 року видавництво Кембриджського університету (Cambridge University Press / CUP), яке має визнану репутацію в академічному світі та щороку публікує близько 400 журналів та 1500 монографій, оприлюднило власні керівні принципи щодо використання штучного інтелекту та великих мовних моделей

14 березня 2023 року видавництво Кембриджського університету (Cambridge University Press / CUP), яке має визнану репутацію в академічному світі та щороку публікує близько 400 журналів та 1500 монографій, оприлюднило власні керівні принципи щодо використання штучного інтелекту та великих мовних моделей у наукових публікаціях.
Ці рекомендації увійшли окремим підрозділом до розділу “Авторство і співавторство” у складі “Керівництва з етики наукових публікацій для журналів”. Правила визначають відношення CUP до нових інструментів, які наразі отримують широке розповсюдження у всіх сферах людської діяльності. Зокрема, у підрозділі “Внесок штучного інтелекту у наукові дослідження” містяться наступні положення. “Використання штучного інтелекту має бути зазначене та чітко описане у роботах, що представляють результати наукових досліджень, так само, як це традиційно роблять з іншим програмним забезпеченням, інструментами та методами. Штучний інтелект не відповідає вимогам Кембриджу щодо авторства. Інструменти штучного інтелекту та великі мовні моделі не можуть бути вказані в якості авторів будь-яких наукових робіт, опублікованих Кембриджем. Автори несуть відповідальність за точність, цілісність та оригінальність своїх наукових робіт, у тому числі – за будь-яке використання штучного інтелекту. Використання штучного інтелекту жодним чином не може порушувати політику Кембриджу щодо плагіату. Наукові роботи мають належати безпосередньо їх авторам і не можуть представляти чужі ідеї, дані, слова або інші матеріали без належного цитування та прозорих посилань. Окремі журнали видавництва також можуть мати більш конкретні вимоги або рекомендації щодо дотримання цієї політики”.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_АкадемДоброчесність_новини #НРАТ_ШтучнийІнтелект
2023-05-02