БЮРОКРАТІЯ ПРОТИ ІННОВАЦІЙ: ЯК УНІВЕРСИТЕТИ МАЮТЬ РЕАГУВАТИ НА Ш

БЮРОКРАТІЯ ПРОТИ ІННОВАЦІЙ: ЯК УНІВЕРСИТЕТИ МАЮТЬ РЕАГУВАТИ НА Ш

На сайті Times Higher Education опубліковано статтю Ахіла Бхардваджа «Бюрократія ставить університети на хибний шлях у справі реагування на ШІ».

На сайті Times Higher Education опубліковано статтю Ахіла Бхардваджа «Бюрократія ставить університети на хибний шлях у справі реагування на ШІ».

У ній автор аналізує, як надмірна формалізація управлінських процесів у системі вищої освіти заважає адекватній реакції університетів на стрімкий розвиток технологій штучного інтелекту. Наголошується, що сучасні ЗВО дедалі частіше намагаються оперативно відповідати на виклики поширення технологій ШІ, розробляючи нові регламенти, політики та процедури. Однак такий підхід не завжди розв’язує проблему, – іноді це відволікає від розуміння суті процесів, що відбуваються. Замість розвитку мислення, здатності до аналізу та інтелектуальної автономії увага зміщується на формальне дотримання правил. У результаті освітній процес ризикує втратити свою головну мету — формування здатності до самостійного мислення.  Неможливо «забюрократизувати» розвиток інтелектуальних навичок так само, як неможливо автоматизувати формування мудрості. Надмірна регуляція може створювати ілюзію контролю, але не сприяти глибшому розумінню технологій та їхнього впливу на навчання. Університети, орієнтуючись на формальні інструменти управління, ризикують втратити гнучкість, необхідну для адаптації до швидких змін у сфері штучного інтелекту.Відповідь на виклики ШІ має бути передусім педагогічною, а не адміністративною: необхідно переосмислити навчальні підходи, які дозволяють студентам не просто користуватися технологіями, а розуміти їх, критично оцінювати результати та інтегрувати у власну інтелектуальну діяльність. Такий підхід передбачає розвиток глибоких знань і навичок, що не можуть бути замінені автоматизованими інструментами. Крім того, спроби університетів реагувати на ШІ через заборони або надмірний контроль можуть мати зворотний ефект: ризики не зменшаться, а можливості для експериментування та осмисленого використання технологій у навчанні будуть обмежені. Тому більш ефективною виглядає на думку Ахіла стратегія, що поєднує відкритість до інновацій із розвитком критичного мислення та академічної автономії.

Детальніше: https://www.timeshighereducation.com/opinion/bureaucracy-putting-universities-wrong-track-respond-ai  

Фото: pixabay.com

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_АкадемДоброчесність #НРАТ_TimesHigherEducation 

2026-03-31
Поширити
УКРАЇНЦІ ОБРАЛИ НАЗВУ НАЦІОНАЛЬНОЇ LLM

УКРАЇНЦІ ОБРАЛИ НАЗВУ НАЦІОНАЛЬНОЇ LLM

Мінцифра разом із Київстар повідомляють, що українці обрали назву першої національної великої мовної моделі, яка створюється – «Сяйво».  

Мінцифра разом із Київстар повідомляють, що українці обрали назву першої національної великої мовної моделі, яка створюється – «Сяйво».  

Її призначення – надавати допомогу у розвитку державних сервісів, бізнесу, науки, освіти для більш швидкої та ефективної  обробки даних, автоматизації рутинних процесів та розроблення нових цифрових продуктів. У відповідному опитуванні щодо назви взяли участь понад 136 тис. осіб, які  запропонували біля трьох тисяч назв. До фінального рейтингу увійшли «Сяйво», «Слово» «Гомін», «Кавун», «Питай», «Шипіт», «Ядро, «Говерла», «Дзвінка» та «Шукай». Запуск системи для бета-тестування запланований наприкінці весни 2026 року.

Детальніше: https://thedigital.gov.ua/news/technologies/siayvo-ukrayintsi-obraly-nazvu-dlia-natsionalnoyi-llm, https://www.facebook.com/diia.gov.ua/posts/pfbid02G83SVcMeMP7vpa67LPnZ1JA1b7cfGWz6S2HbyA6LsviPfnYPZuBcXMLHrAa9T3pwl

Фото: Мінцифри

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_Інноватолам_новини

2026-03-31
Поширити
«ЕФЕКТ КРОКОДИЛА»  – ДОЄДНАННЯ НОВИХ УЧАСНИКІВ ДОСЛІДЖЕННЯ

«ЕФЕКТ КРОКОДИЛА»  – ДОЄДНАННЯ НОВИХ УЧАСНИКІВ ДОСЛІДЖЕННЯ

На сайті Kudos опубліковано матеріал Чарлі Раппл «Дослідження пошуку з нульовим кліком у сфері штучного інтелекту вітає нових спонсорів AIP Publishing, IEEE, Clarivate та Cactus Communications».

На сайті Kudos опубліковано матеріал Чарлі Раппл «Дослідження пошуку з нульовим кліком у сфері штучного інтелекту вітає нових спонсорів AIP Publishing, IEEE, Clarivate та Cactus Communications».

У ньому повідомляється, що до ініціативи Kudos приєдналися нові зацікавлені інституції – AIP Publishing, IEEE, Clarivate та Cactus Communications. Відповідно обсяг першої фази розширено, щоб включити опитування видавців та бібліотекарів, які досліджуватимуть та порівнюватимуть дії, які вживаються у відповідь на огляди, створені штучним інтелектом, на сторінках результатів пошуку та в інструментах чату на основі штучного інтелекту. Опитування бібліотек дозволить зрозуміти вплив пошуку без кліків на навчання користувачів, використання бібліотечних ресурсів, а також виявити занепокоєння щодо поширення ШІ. Опитування видавців дослідить вплив оглядів, створених ШІ, на використання їхнього контенту. Також відбуватиметься опитування користувачів щодо їх  сприйняття та поведінки користувачів щодо пошукових шляхів, намірів та довіри до результатів роботи ШІ. Спонсори  (Emerald Publishing, Elsevier, Wiley, Springer Nature, IOP Publishing, Silverchair, BMJ Group, Американське фізичне товариство, Oxford University PressтаDe Gruyter Brill) отримають цінні дані, які у подальшому можна використати для порівняльного аналізу та розроблення необхідних заходів реагування.  

Детальніше:  https://3cxvc.share.hsforms.com/2Zkn8u513RXeavugD0GjT0A,https://blog.growkudos.com/news/ai-zero-click-search-study-welcomes-aip-publishing-ieee-clarivate-cactus-communications, https://nrat.ukrintei.ua/efekt-krokodyla-vydymist-bez-chytannya/

Фото: скріншот

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_НауковіВидання_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини  #НРАТ_АкадемДоброчесність#НРАТ_Бібліотекарям

2026-03-31
Поширити
ОЕСР: МАСШТАБУВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ В ОХОРОНІ ЗДОРОВ’Я

ОЕСР: МАСШТАБУВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ В ОХОРОНІ ЗДОРОВ’Я

Організація економічного співробітництва та розвитку опублікувала звіт «Масштабування штучного інтелекту в охороні здоров’я»

Організація економічного співробітництва та розвитку опублікувала звіт «Масштабування штучного інтелекту в охороні здоров’я»

У ньому зазначається, що технологія штучного інтелекту має величезний потенціал та вже здійснює значний вплив на системи охорони здоров’я в усьому світі.  Цей потенціал не реалізується повною мірою через фрагментацію баз даних, неузгодженість політики та практики, а також структурні та управлінські бар’єри, що перешкоджають масштабуванню. Хоча ШІ повсюдно використовується в адміністративній роботі у країнах-членах ОЕСР, масштабування на національному рівні залишається обмеженим. Є задокументовані ризики, пов’язані з використанням ШІ в системі охорони здоров’я: спотворені дані, ризики неправомірного розкриття конфіденційних даних,  кібербезпека, недостатня прозорість або неналежний нагляд, втрата робочих місць та деперсоналізація. Потрібен баланс між ринковими силами (які швидко змінюються), принципами охорони здоров’я (щоб не завдавати шкоди) та охопленням (за рахунок масштабування). Хоча ШІ вже використовується в охороні здоров’я у країнах-членах ОЕСР, відповідальне та масштабоване його упровадження, як і раніше, утруднене структурними, нормативними та управлінськими розривами. Країни-члени ОЕСР реалізують ряд ініціатив для усунення цих прогалин, розробляючи відповідні стратегії та плани дій. У звіті представлено узгоджений контрольний список політик, який має скерувати процес прийняття рішень та визначення пріоритетів. Цей список організовано за чотирма напрямками: створення сприятливих умов (для баз даних, масштабування ШІ та нарощування потенціалу); робота з  бар’єрами (нагляд та моніторинг прогресу у досягненні спільних цілей); змістовна взаємодія з громадськістю, постачальниками послуг та галуззю; упровадження надійного ШІ. За названими напрямками визначено  дев’ять основних категорій політики та 43 питання, що є критично важливими для відповідального масштабування переваг ШІ в системі охорони здоров’я.

Детальніше: https://www.oecd.org/en/publications/scaling-artificial-intelligence-in-health_a436e12d-en.html,https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/04/scaling-artificial-intelligence-in-health_77610b12/a436e12d-en.pdf, https://doi.org/10.1787/a436e12d-en

Фото: скріншот

#НРАТ_Усі_новини #НРАТ_OECD #НРАТ_ШтучнийІнтелект  #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_Інноваторам_новини

2026-03-31
Поширити
МІЖ АВТОМАТИЗАЦІЄЮ ТА ВІДПОВІДАЛЬНІСТЮ: РОЛЬ ЛЮДИНИ У ДОСЛІДЖЕННЯХ

МІЖ АВТОМАТИЗАЦІЄЮ ТА ВІДПОВІДАЛЬНІСТЮ: РОЛЬ ЛЮДИНИ У ДОСЛІДЖЕННЯХ

На сайті Times Higher Education опубліковано статтю Башира М. Аль-Хашимі «Штучний інтелект може допомогти у дослідженнях, але відповідальність має залишатися за людиною».

На сайті Times Higher Education опубліковано статтю Башира М. Аль-Хашимі «Штучний інтелект може допомогти у дослідженнях, але відповідальність має залишатися за людиною».

У ній автор розглядає можливості використання штучного інтелекту на різних етапах дослідницького процесу — від аналізу великих масивів даних до підготовки текстів і формування гіпотез. Це дозволяє підвищити ефективність роботи та прискорити отримання результатів. Водночас автоматизація окремих процесів не повинна підміняти критичне осмислення та наукову доброчесність, які залишаються ключовими для академічної діяльності. Обговорюється ціла низка ризиків, пов’язаних із використанням генеративних моделей в науці, у першу чергу пов’язаних з помилковою, недостовірною, некоректно інтерпретованою інформацією. Необхідно ретельно перевіряти результати, отримані за допомогою ШІ  та усвідомлювати, що ці інструменти мають свої обмеження. Відповідальність за якість, точність та етичність дослідження не може бути делегована алгоритмам, навіть якщо вони відіграють суттєву роль у науковому процесі. У статті також розглядається питання авторства і прозорості використання ШІ у наукових публікаціях. Наголошується на необхідності чіткого зазначення ролі технологій у створенні дослідницьких результатів, що дозволяє зберегти довіру до наукового знання та уникнути спотворення уявлення про внесок дослідника. Потрібно формувати узгоджені підходи та стандарти використання штучного інтелекту в науці. Технологічні можливості та людська участь і кінцева відповідальність за отримані  у науковій діяльності результати мають бути збалансовані. Попри значний потенціал штучного інтелекту як інструменту підтримки досліджень, саме людина є ключовим суб’єктом прийняття рішень, оцінювання результатів і дотримання етичних норм, що визначають якість і надійність наукового знання.

Детальніше: https://www.timeshighereducation.com/opinion/ai-can-help-research-humans-must-remain-accountable   

Фото: pixabay.com

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини  #НРАТ_TimesHigherEducation 

2026-03-30
Поширити
АКАДЕМІЧНА АВТОНОМІЯ ЧИ ТЕХНОЛОГІЧНИЙ ТИСК: ПРАВО ВІДМОВИТИСЬ ВІД ШІ

АКАДЕМІЧНА АВТОНОМІЯ ЧИ ТЕХНОЛОГІЧНИЙ ТИСК: ПРАВО ВІДМОВИТИСЬ ВІД ШІ

На сайті Inside Higher Ed, що належить  Times Higher Education, опубліковано статтю Кетрін Палмер «Викладачі наполягають на праві відмовитися від використання штучного інтелекту».

На сайті Inside Higher Ed, що належить  Times Higher Education, опубліковано статтю Кетрін Палмер «Викладачі наполягають на праві відмовитися від використання штучного інтелекту».

У ній автор висвітлює позицію частини науково-педагогічних працівників, зокрема викладачів академічного письма, які виступають за збереження можливості не застосовувати генеративний штучний інтелект у навчальному процесі. Йдеться про ініціативу на підтримку права викладачів і студентів свідомо відмовлятися від використання інструментів ГШІ в освіті, що стало реакцією на зростаючий тиск повсюдного упровадження цифрових інструментів, який супроводжується риторикою неминучості технологічних змін. Ця позиція не є категоричним запереченням інновацій, а відображає прагнення зберегти академічну автономію та критичне ставлення до нових технологій. Серед аргументів на користь такого підходу називаються етичні, екологічні та економічні аспекти використання генеративного штучного інтелекту. Деякі викладачі вважають, що його поширення пов’язане з інтересами великих технологічних компаній, які отримують вигоду від використання даних студентів і викладачів, а також результатів їхньої інтелектуальної праці. Відмова від використання ШІ розглядається як спосіб переосмислення взаємодії з комерційними цифровими платформами та збереження контролю над освітнім процесом. Не всі професійні спільноти підтримують ідею повної відмови від технологій або їхнього повного беззаперечного прийняття. Водночас ігнорування ШІ, який набув широкого поширення в усіх галузях, є проблематичним. Зростає прагнення відстояти право вибору як важливий принцип використання нових технологій у навчанні. Освітяни висловлюють занепокоєння впливом генеративного штучного інтелекту на якість навчання та добробут студентів. Нинішнє активне просування таких інструментів не має достатніх доказів безпеки та ефективності, що ставить під сумнів доцільність їх масового впровадження. Необхідний баланс між інноваціями та академічною автономією: ШІ стає невід’ємною частиною освітнього середовища, але одночасно з цим зростає потреба у збереженні права викладачів і студентів самостійно визначати межі його використання на основі критичного і рефлексивного підходу до цифрових трансформацій у вищій освіті.

Детальніше: https://www.insidehighered.com/news/tech-innovation/teaching-learning/2026/03/16/writing-faculty-push-right-refuse-ai

Фото: pixabay.com

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини  #НРАТ_TimesHigherEducation 

2026-03-27
Поширити
СКЕПСИС ЩОДО ШІ: НЕ ТРЕБА ПОСПІШАТИ

СКЕПСИС ЩОДО ШІ: НЕ ТРЕБА ПОСПІШАТИ

На сайті Inside Higher Ed, що належить  Times Higher Education, опубліковано статтю Кетрін Палмер «Чому адміністратор у сфері штучного інтелекту ставиться до нього скептично».

На сайті Inside Higher Ed, що належить  Times Higher Education, опубліковано статтю Кетрін Палмер «Чому адміністратор у сфері штучного інтелекту ставиться до нього скептично».

У ній автор, спираючись на досвід Метью Коннеллі, віце-декана з питань ініціатив у сфері штучного інтелекту Колумбійського університету, розмірковує про обмеження та ризики використання ГШІ в освітньому середовищі. Наголошується, що попри значний потенціал великих мовних моделей для підтримки навчального процесу, кінцева ефективність залежить від умов застосування ШІ. Технології можуть сприяти більш глибокому навчанню лише тоді, коли використовуються у взаємодії з викладачем і супроводжуються експериментами, перевіркою результатів і критичним аналізом. І навпаки, масове і неконтрольоване використання цих інструментів студентами без належного методичного супроводу не забезпечує якісного освітнього результату. Наразі ми спостерігаємо за зміною характеру роботи студентів: поширення генеративних інструментів може призводити до зниження самостійності у виконанні завдань і формального підходу до навчання. Це, у свою чергу, ставить під сумнів здатність студентів розвивати навички критичного мислення, які традиційно вважаються ключовими результатами вищої освіти. Проблема полягає не в технологіях, а у відсутності чітких педагогічних моделей їх інтеграції. Сучасна освітня практика не має достатньої емпіричної бази для оцінювання довгострокових наслідків використання ШІ: задіяння цих інструментів відбувається швидше, ніж формується розуміння їхньої ефективності, що створює розрив між технологічними можливостями та педагогічною доцільністю. Отже, скептичне ставлення тут не означає заперечення інновацій, а є необхідною умовою їхнього відповідального впровадження. Потенціал ШІ є значним, проте ефективність його використання залежить від здатності університетів інтегрувати технології у навчальний процес у поєднанні з кращими педагогічними підходами, що забезпечують розвиток критичного мислення та академічної самостійності.

Детальніше: https://www.insidehighered.com/news/tech-innovation/artificial-intelligence/2026/02/18/why-one-ai-administrator-skeptical-ai

Фото: pixabay.com

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини  #НРАТ_TimesHigherEducation 

2026-03-25
Поширити
ОЕСР: ІНЦИДЕНТИ ТА НЕБЕЗПЕКИ, ПОВ’ЯЗАНІ З ШІ

ОЕСР: ІНЦИДЕНТИ ТА НЕБЕЗПЕКИ, ПОВ’ЯЗАНІ З ШІ

Організація економічного співробітництва та розвитку опублікувала робочій документ «Тенденції щодо інцидентів та небезпек, пов’язаних зі штучним інтелектом, про які повідомляють ЗМІ» із серії «Документи ОЕСР зі штучного інтелекту».

Організація економічного співробітництва та розвитку опублікувала робочій документ «Тенденції щодо інцидентів та небезпек, пов’язаних зі штучним інтелектом, про які повідомляють ЗМІ» із серії «Документи ОЕСР зі штучного інтелекту».

У ньому зазначається, що упровадження ШІ супроводжуються підвищеною увагою до пов’язаних з ним ризиків, отже нагальним завданням є виявлення та реагування на них.  Ризики доцільно розподіляти на дві групи – «небезпека», коли вони являють собою потенційну шкоду та «інциденти» –  коли вони призводять до фактичної шкоди. Ефективні механізми моніторингу, звітності та реагування на ризики ШІ необхідні для розуміння, запобігання та пом’якшення такого роду ризиків, а також усунення наслідків інцидентів. На початку 2025 року члени Глобального партнерства з ШІ затвердили загальну структуру звітності про інциденти, пов’язані зі ШІ, як міжнародний шаблон для обміну даними між державними та приватними організаціями у різних юрисдикціях та секторах. Ці відомості про інциденти та небезпеки, пов’язані зі ШІ, мають важливе значення для розробників та користувачів ШІ, політиків, дослідників та громадськості щоб їх розуміти та знешкоджувати й усувати наслідки. Великі компанії, що займаються ШІ, відслідковують і діляться такою інформацією, але більша її частина залишається конфіденційною. Непрямі індикатори (наприклад, судові рішення у справах, пов’язаних зі ШІ; повідомлення у ЗМІ) можуть дати часткове уявлення про те, де та які саме типи інцидентів мали місце.  Опублікований документ містить аналіз доступних даних, структурованих за 14 тематичними кластерами, які збираються у режимі реального часу та поширюються завдяки Монітору інцидентів і небезпек, пов’язаних зі штучним інтелектом.

Детальніше: https://www.oecd.org/en/publications/trends-in-ai-incidents-and-hazards-reported-by-the-media_4f5ff43c-en.html, https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/02/trends-in-ai-incidents-and-hazards-reported-by-the-media_7c824ca9/4f5ff43c-en.pdf,https://doi.org/10.1787/4f5ff43c-en

Фото: скріншот

#НРАТ_Усі_новини #НРАТ_OECD #НРАТ_ШтучнийІнтелект #НРАТ_ВідкритіДані #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини  #НРАТ_Інноваторам_новини

2026-03-25
Поширити
ІДЕНТИЧНІСТЬ ЯК РЕСУРС: ВИКОРИСТАННЯ ІМЕН НАУКОВЦІВ У ЦИФРОВИХ СЕРВІСАХ

ІДЕНТИЧНІСТЬ ЯК РЕСУРС: ВИКОРИСТАННЯ ІМЕН НАУКОВЦІВ У ЦИФРОВИХ СЕРВІСАХ

На сайті Times Higher Education опубліковано статтю Сехер Асаф «Grammarly стикається з позовом через інструмент штучного інтелекту, що використовує ідентичності науковців».

На сайті Times Higher Education опубліковано статтю Сехер Асаф «Grammarly стикається з позовом через інструмент штучного інтелекту, що використовує ідентичності науковців».

У ній автор висвітлює ситуацію навколо судового позову проти Grammarly та аналізує етичні й правові наслідки використання генеративного штучного інтелекту в академічному середовищі. Підставою для позову стала функція «Expert Review», яка генерувала поради з редагування текстів, подаючи їх як такі, що «натхненні» відомими авторами, журналістами чи науковцями. При цьому імена реальних людей використовувалися без їхньої згоди, що викликало критику з боку професійної спільноти. Grammarly вже припинила роботу цього інструменту після значного суспільного резонансу. Подібна практика створює ризик спотворення авторських позицій, оскільки згенеровані алгоритмом поради можуть не відповідати реальним поглядам тих, чиї імена використовуються. Це, у свою чергу, підриває довіру до академічної комунікації та ставить під сумнів коректність представлення інтелектуального внеску конкретних осіб. Щодо правових аспектів справи, то позивачі заявили, що використання імен і професійної репутації для комерційних цілей без дозволу може порушувати норми захисту персональних даних і права на публічний образ. Сам позов став важливим прецедентом для регулювання застосування інструментів ШІ у сфері створення контенту. Етичний вимір проблеми пов’язаний з використанням авторитету відомих науковців і публічних інтелектуалів для підвищення довіри до алгоритмічно згенерованих порад, що може вводити користувачів в оману щодо походження та надійності інформації. У результаті виникає розрив між фактичним джерелом знань і тим, як воно презентується. Ситуація навколо Grammarly продемонструвала новий рівень викликів для академічної та видавничої спільноти, пов’язаних із використанням штучного інтелекту. Дедалі актуальнішою стає потреба у чітких правилах щодо авторства, згоди та відповідальності, що по суті є необхідною умовою збереження довіри до наукового знання в умовах стрімкого розвитку цифрових технологій.

Детальніше: https://www.timeshighereducation.com/news/grammarly-faces-lawsuit-over-ai-tool-using-academics-identities,  https://www.wired.com/story/grammarly-is-facing-a-class-action-lawsuit-over-its-ai-expert-review-feature

Фото: pixabay.com

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини  #НРАТ_TimesHigherEducation 

2026-03-23
Поширити
«ЕФЕКТ КРОКОДИЛА»: ВИДИМІСТЬ БЕЗ ЧИТАННЯ

«ЕФЕКТ КРОКОДИЛА»: ВИДИМІСТЬ БЕЗ ЧИТАННЯ

На сайті Kudos опубліковано матеріал Чарлі Раппл «Elsevier, Wiley, BMJ Group, American Physical Society та Oxford University Press приєднуються до дослідження про “нульові переходи” та пошук із використанням ШІ».

На сайті Kudos опубліковано матеріал Чарлі Раппл «Elsevier, Wiley, BMJ Group, American Physical Society та Oxford University Press приєднуються до дослідження про “нульові переходи” та пошук із використанням ШІ».

У ньому автор повідомляє про розширення дослідницької ініціативи, спрямованої на вивчення того, як нові механізми пошуку в мережі інтернет змінюють доступ до наукової інформації та взаємодію з нею. Формується широка міжінституційна коаліція для дослідження впливу так званого ефекту «нульових переходів», коли користувачі завдяки інструментам великих мовних моделей отримують відповіді безпосередньо на сторінці пошукової системи і не переходять до першоджерел інформації. Масове використання відповідей, згенерованих штучним інтелектом, змінює саму логіку доступу до наукових знань. Хоча видимість досліджень у пошукових системах може зростати, кількість переходів до повних текстів постійно зменшується, що створює розрив між переглядами та фактичним використанням матеріалів. Наслідки цього виходять далеко за межі простого зниження вебтрафіку. Йдеться про більш глибокі проблеми наукової комунікації, зокрема – атрибуцію, контроль версій, довіру до результатів досліджень і збереження цілісності наукового знання. Якщо користувачі покладаються на узагальнені відповіді, сформовані алгоритмами, вони можуть не бачити контексту, обмежень або застережень, які містяться в оригінальних публікаціях. У процесі дослідження планується зібрати емпіричні дані про поведінку користувачів, а також розробити практичні рекомендації для видавців, технологічних платформ і дослідницьких організацій щодо забезпечення видимості якісного наукового контенту та його коректного використання в умовах поширення алгоритмічних інструментів пошуку. Нова ініціатива є відповіддю на виклики нинішнього етапу трансформації системи наукової комунікації, у якій змінюється баланс між доступністю знань та збереженням контексту й достовірності. Академічна спільнота потребує  нових підходів до використання штучного інтелекту, які забезпечать не лише зручність доступу, а й довіру до наукового знання.

Детальніше: https://blog.growkudos.com/news/elsevier-wiley-bmj-group-american-physical-society-oxford-university-press-join-kudos-zero-click-and-ai-search-studyhttps://www.linkedin.com/posts/timsoulo_the-past-12-months-of-gsc-data-for-the-ahrefs-activity-7341034461481902080-JgxY/, https://3cxvc.share.hsforms.com/2Zkn8u513RXeavugD0GjT0A

Фото: скріншот

#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_НауковіВидання_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_АкадемДоброчесність

2026-03-19
Поширити