Мінцифра разом із Київстар повідомляють, що українці обрали назву першої національної великої мовної моделі, яка створюється – «Сяйво».
Мінцифра разом із Київстар повідомляють, що українці обрали назву першої національної великої мовної моделі, яка створюється – «Сяйво».
Її призначення – надавати допомогу у розвитку державних сервісів, бізнесу, науки, освіти для більш швидкої та ефективної обробки даних, автоматизації рутинних процесів та розроблення нових цифрових продуктів. У відповідному опитуванні щодо назви взяли участь понад 136 тис. осіб, які запропонували біля трьох тисяч назв. До фінального рейтингу увійшли «Сяйво», «Слово» «Гомін», «Кавун», «Питай», «Шипіт», «Ядро, «Говерла», «Дзвінка» та «Шукай». Запуск системи для бета-тестування запланований наприкінці весни 2026 року.
На сайті Kudos опубліковано матеріал Чарлі Раппл «Дослідження пошуку з нульовим кліком у сфері штучного інтелекту вітає нових спонсорів AIP Publishing, IEEE, Clarivate та Cactus Communications».
На сайті Kudos опубліковано матеріал Чарлі Раппл «Дослідження пошуку з нульовим кліком у сфері штучного інтелекту вітає нових спонсорів AIP Publishing, IEEE, Clarivate та Cactus Communications».
У ньому повідомляється, що до ініціативи Kudos приєдналися нові зацікавлені інституції – AIP Publishing, IEEE, Clarivate та Cactus Communications. Відповідно обсяг першої фази розширено, щоб включити опитування видавців та бібліотекарів, які досліджуватимуть та порівнюватимуть дії, які вживаються у відповідь на огляди, створені штучним інтелектом, на сторінках результатів пошуку та в інструментах чату на основі штучного інтелекту. Опитування бібліотек дозволить зрозуміти вплив пошуку без кліків на навчання користувачів, використання бібліотечних ресурсів, а також виявити занепокоєння щодо поширення ШІ. Опитування видавців дослідить вплив оглядів, створених ШІ, на використання їхнього контенту. Також відбуватиметься опитування користувачів щодо їх сприйняття та поведінки користувачів щодо пошукових шляхів, намірів та довіри до результатів роботи ШІ. Спонсори (Emerald Publishing, Elsevier, Wiley, Springer Nature, IOP Publishing, Silverchair, BMJ Group, Американське фізичне товариство, Oxford University PressтаDe Gruyter Brill) отримають цінні дані, які у подальшому можна використати для порівняльного аналізу та розроблення необхідних заходів реагування.
Організація економічного співробітництва та розвитку опублікувала звіт «Масштабування штучного інтелекту в охороні здоров’я»
Організація економічного співробітництва та розвитку опублікувала звіт «Масштабування штучного інтелекту в охороні здоров’я»
У ньому зазначається, що технологія штучного інтелекту має величезний потенціал та вже здійснює значний вплив на системи охорони здоров’я в усьому світі. Цей потенціал не реалізується повною мірою через фрагментацію баз даних, неузгодженість політики та практики, а також структурні та управлінські бар’єри, що перешкоджають масштабуванню. Хоча ШІ повсюдно використовується в адміністративній роботі у країнах-членах ОЕСР, масштабування на національному рівні залишається обмеженим. Є задокументовані ризики, пов’язані з використанням ШІ в системі охорони здоров’я: спотворені дані, ризики неправомірного розкриття конфіденційних даних, кібербезпека, недостатня прозорість або неналежний нагляд, втрата робочих місць та деперсоналізація. Потрібен баланс між ринковими силами (які швидко змінюються), принципами охорони здоров’я (щоб не завдавати шкоди) та охопленням (за рахунок масштабування). Хоча ШІ вже використовується в охороні здоров’я у країнах-членах ОЕСР, відповідальне та масштабоване його упровадження, як і раніше, утруднене структурними, нормативними та управлінськими розривами. Країни-члени ОЕСР реалізують ряд ініціатив для усунення цих прогалин, розробляючи відповідні стратегії та плани дій. У звіті представлено узгоджений контрольний список політик, який має скерувати процес прийняття рішень та визначення пріоритетів. Цей список організовано за чотирма напрямками: створення сприятливих умов (для баз даних, масштабування ШІ та нарощування потенціалу); робота з бар’єрами (нагляд та моніторинг прогресу у досягненні спільних цілей); змістовна взаємодія з громадськістю, постачальниками послуг та галуззю; упровадження надійного ШІ. За названими напрямками визначено дев’ять основних категорій політики та 43 питання, що є критично важливими для відповідального масштабування переваг ШІ в системі охорони здоров’я.
На сайті Times Higher Education опубліковано статтю Башира М. Аль-Хашимі «Штучний інтелект може допомогти у дослідженнях, але відповідальність має залишатися за людиною».
На сайті Times Higher Education опубліковано статтю Башира М. Аль-Хашимі «Штучний інтелект може допомогти у дослідженнях, але відповідальність має залишатися за людиною».
У ній автор розглядає можливості використання штучного інтелекту на різних етапах дослідницького процесу — від аналізу великих масивів даних до підготовки текстів і формування гіпотез. Це дозволяє підвищити ефективність роботи та прискорити отримання результатів. Водночас автоматизація окремих процесів не повинна підміняти критичне осмислення та наукову доброчесність, які залишаються ключовими для академічної діяльності. Обговорюється ціла низка ризиків, пов’язаних із використанням генеративних моделей в науці, у першу чергу пов’язаних з помилковою, недостовірною, некоректно інтерпретованою інформацією. Необхідно ретельно перевіряти результати, отримані за допомогою ШІ та усвідомлювати, що ці інструменти мають свої обмеження. Відповідальність за якість, точність та етичність дослідження не може бути делегована алгоритмам, навіть якщо вони відіграють суттєву роль у науковому процесі. У статті також розглядається питання авторства і прозорості використання ШІ у наукових публікаціях. Наголошується на необхідності чіткого зазначення ролі технологій у створенні дослідницьких результатів, що дозволяє зберегти довіру до наукового знання та уникнути спотворення уявлення про внесок дослідника. Потрібно формувати узгоджені підходи та стандарти використання штучного інтелекту в науці. Технологічні можливості та людська участь і кінцева відповідальність за отримані у науковій діяльності результати мають бути збалансовані. Попри значний потенціал штучного інтелекту як інструменту підтримки досліджень, саме людина є ключовим суб’єктом прийняття рішень, оцінювання результатів і дотримання етичних норм, що визначають якість і надійність наукового знання.
На сайті Inside Higher Ed, що належить Times Higher Education, опубліковано статтю Кетрін Палмер «Викладачі наполягають на праві відмовитися від використання штучного інтелекту».
На сайті Inside Higher Ed, що належить Times Higher Education, опубліковано статтю Кетрін Палмер «Викладачі наполягають на праві відмовитися від використання штучного інтелекту».
У ній автор висвітлює позицію частини науково-педагогічних працівників, зокрема викладачів академічного письма, які виступають за збереження можливості не застосовувати генеративний штучний інтелект у навчальному процесі. Йдеться про ініціативу на підтримку права викладачів і студентів свідомо відмовлятися від використання інструментів ГШІ в освіті, що стало реакцією на зростаючий тиск повсюдного упровадження цифрових інструментів, який супроводжується риторикою неминучості технологічних змін. Ця позиція не є категоричним запереченням інновацій, а відображає прагнення зберегти академічну автономію та критичне ставлення до нових технологій. Серед аргументів на користь такого підходу називаються етичні, екологічні та економічні аспекти використання генеративного штучного інтелекту. Деякі викладачі вважають, що його поширення пов’язане з інтересами великих технологічних компаній, які отримують вигоду від використання даних студентів і викладачів, а також результатів їхньої інтелектуальної праці. Відмова від використання ШІ розглядається як спосіб переосмислення взаємодії з комерційними цифровими платформами та збереження контролю над освітнім процесом. Не всі професійні спільноти підтримують ідею повної відмови від технологій або їхнього повного беззаперечного прийняття. Водночас ігнорування ШІ, який набув широкого поширення в усіх галузях, є проблематичним. Зростає прагнення відстояти право вибору як важливий принцип використання нових технологій у навчанні. Освітяни висловлюють занепокоєння впливом генеративного штучного інтелекту на якість навчання та добробут студентів. Нинішнє активне просування таких інструментів не має достатніх доказів безпеки та ефективності, що ставить під сумнів доцільність їх масового впровадження. Необхідний баланс між інноваціями та академічною автономією: ШІ стає невід’ємною частиною освітнього середовища, але одночасно з цим зростає потреба у збереженні права викладачів і студентів самостійно визначати межі його використання на основі критичного і рефлексивного підходу до цифрових трансформацій у вищій освіті.
На сайті Inside Higher Ed, що належить Times Higher Education, опубліковано статтю Кетрін Палмер «Чому адміністратор у сфері штучного інтелекту ставиться до нього скептично».
На сайті Inside Higher Ed, що належить Times Higher Education, опубліковано статтю Кетрін Палмер «Чому адміністратор у сфері штучного інтелекту ставиться до нього скептично».
У ній автор, спираючись на досвід Метью Коннеллі, віце-декана з питань ініціатив у сфері штучного інтелекту Колумбійського університету, розмірковує про обмеження та ризики використання ГШІ в освітньому середовищі. Наголошується, що попри значний потенціал великих мовних моделей для підтримки навчального процесу, кінцева ефективність залежить від умов застосування ШІ. Технології можуть сприяти більш глибокому навчанню лише тоді, коли використовуються у взаємодії з викладачем і супроводжуються експериментами, перевіркою результатів і критичним аналізом. І навпаки, масове і неконтрольоване використання цих інструментів студентами без належного методичного супроводу не забезпечує якісного освітнього результату. Наразі ми спостерігаємо за зміною характеру роботи студентів: поширення генеративних інструментів може призводити до зниження самостійності у виконанні завдань і формального підходу до навчання. Це, у свою чергу, ставить під сумнів здатність студентів розвивати навички критичного мислення, які традиційно вважаються ключовими результатами вищої освіти. Проблема полягає не в технологіях, а у відсутності чітких педагогічних моделей їх інтеграції. Сучасна освітня практика не має достатньої емпіричної бази для оцінювання довгострокових наслідків використання ШІ: задіяння цих інструментів відбувається швидше, ніж формується розуміння їхньої ефективності, що створює розрив між технологічними можливостями та педагогічною доцільністю. Отже, скептичне ставлення тут не означає заперечення інновацій, а є необхідною умовою їхнього відповідального впровадження. Потенціал ШІ є значним, проте ефективність його використання залежить від здатності університетів інтегрувати технології у навчальний процес у поєднанні з кращими педагогічними підходами, що забезпечують розвиток критичного мислення та академічної самостійності.
Організація економічного співробітництва та розвитку опублікувала робочій документ «Тенденції щодо інцидентів та небезпек, пов’язаних зі штучним інтелектом, про які повідомляють ЗМІ» із серії «Документи ОЕСР зі штучного інтелекту».
Організація економічного співробітництва та розвитку опублікувала робочій документ «Тенденції щодо інцидентів та небезпек, пов’язаних зі штучним інтелектом, про які повідомляють ЗМІ» із серії «Документи ОЕСР зі штучного інтелекту».
У ньому зазначається, що упровадження ШІ супроводжуються підвищеною увагою до пов’язаних з ним ризиків, отже нагальним завданням є виявлення та реагування на них. Ризики доцільно розподіляти на дві групи – «небезпека», коли вони являють собою потенційну шкоду та «інциденти» – коли вони призводять до фактичної шкоди. Ефективні механізми моніторингу, звітності та реагування на ризики ШІ необхідні для розуміння, запобігання та пом’якшення такого роду ризиків, а також усунення наслідків інцидентів. На початку 2025 року члени Глобального партнерства з ШІ затвердили загальну структуру звітності про інциденти, пов’язані зі ШІ, як міжнародний шаблон для обміну даними між державними та приватними організаціями у різних юрисдикціях та секторах. Ці відомості про інциденти та небезпеки, пов’язані зі ШІ, мають важливе значення для розробників та користувачів ШІ, політиків, дослідників та громадськості щоб їх розуміти та знешкоджувати й усувати наслідки. Великі компанії, що займаються ШІ, відслідковують і діляться такою інформацією, але більша її частина залишається конфіденційною. Непрямі індикатори (наприклад, судові рішення у справах, пов’язаних зі ШІ; повідомлення у ЗМІ) можуть дати часткове уявлення про те, де та які саме типи інцидентів мали місце. Опублікований документ містить аналіз доступних даних, структурованих за 14 тематичними кластерами, які збираються у режимі реального часу та поширюються завдяки Монітору інцидентів і небезпек, пов’язаних зі штучним інтелектом.
На сайті Times Higher Education опубліковано статтю Сехер Асаф «Grammarly стикається з позовом через інструмент штучного інтелекту, що використовує ідентичності науковців».
На сайті Times Higher Education опубліковано статтю Сехер Асаф «Grammarly стикається з позовом через інструмент штучного інтелекту, що використовує ідентичності науковців».
У ній автор висвітлює ситуацію навколо судового позову проти Grammarly та аналізує етичні й правові наслідки використання генеративного штучного інтелекту в академічному середовищі. Підставою для позову стала функція «Expert Review», яка генерувала поради з редагування текстів, подаючи їх як такі, що «натхненні» відомими авторами, журналістами чи науковцями. При цьому імена реальних людей використовувалися без їхньої згоди, що викликало критику з боку професійної спільноти. Grammarly вже припинила роботу цього інструменту після значного суспільного резонансу. Подібна практика створює ризик спотворення авторських позицій, оскільки згенеровані алгоритмом поради можуть не відповідати реальним поглядам тих, чиї імена використовуються. Це, у свою чергу, підриває довіру до академічної комунікації та ставить під сумнів коректність представлення інтелектуального внеску конкретних осіб. Щодо правових аспектів справи, то позивачі заявили, що використання імен і професійної репутації для комерційних цілей без дозволу може порушувати норми захисту персональних даних і права на публічний образ. Сам позов став важливим прецедентом для регулювання застосування інструментів ШІ у сфері створення контенту. Етичний вимір проблеми пов’язаний з використанням авторитету відомих науковців і публічних інтелектуалів для підвищення довіри до алгоритмічно згенерованих порад, що може вводити користувачів в оману щодо походження та надійності інформації. У результаті виникає розрив між фактичним джерелом знань і тим, як воно презентується. Ситуація навколо Grammarly продемонструвала новий рівень викликів для академічної та видавничої спільноти, пов’язаних із використанням штучного інтелекту. Дедалі актуальнішою стає потреба у чітких правилах щодо авторства, згоди та відповідальності, що по суті є необхідною умовою збереження довіри до наукового знання в умовах стрімкого розвитку цифрових технологій.
На сайті Kudos опубліковано матеріал Чарлі Раппл «Elsevier, Wiley, BMJ Group, American Physical Society та Oxford University Press приєднуються до дослідження про “нульові переходи” та пошук із використанням ШІ».
На сайті Kudos опубліковано матеріал Чарлі Раппл «Elsevier, Wiley, BMJ Group, American Physical Society та Oxford University Press приєднуються до дослідження про “нульові переходи” та пошук із використанням ШІ».
У ньому автор повідомляє про розширення дослідницької ініціативи, спрямованої на вивчення того, як нові механізми пошуку в мережі інтернет змінюють доступ до наукової інформації та взаємодію з нею. Формується широка міжінституційна коаліція для дослідження впливу так званого ефекту «нульових переходів», коли користувачі завдяки інструментам великих мовних моделей отримують відповіді безпосередньо на сторінці пошукової системи і не переходять до першоджерел інформації. Масове використання відповідей, згенерованих штучним інтелектом, змінює саму логіку доступу до наукових знань. Хоча видимість досліджень у пошукових системах може зростати, кількість переходів до повних текстів постійно зменшується, що створює розрив між переглядами та фактичним використанням матеріалів. Наслідки цього виходять далеко за межі простого зниження вебтрафіку. Йдеться про більш глибокі проблеми наукової комунікації, зокрема – атрибуцію, контроль версій, довіру до результатів досліджень і збереження цілісності наукового знання. Якщо користувачі покладаються на узагальнені відповіді, сформовані алгоритмами, вони можуть не бачити контексту, обмежень або застережень, які містяться в оригінальних публікаціях. У процесі дослідження планується зібрати емпіричні дані про поведінку користувачів, а також розробити практичні рекомендації для видавців, технологічних платформ і дослідницьких організацій щодо забезпечення видимості якісного наукового контенту та його коректного використання в умовах поширення алгоритмічних інструментів пошуку. Нова ініціатива є відповіддю на виклики нинішнього етапу трансформації системи наукової комунікації, у якій змінюється баланс між доступністю знань та збереженням контексту й достовірності. Академічна спільнота потребує нових підходів до використання штучного інтелекту, які забезпечать не лише зручність доступу, а й довіру до наукового знання.
На сайті Times Higher Education опубліковано статтю Ренії Лопес-Озіебло «Як “Кармен” та гуманітарні науки можуть формувати навички, яких не має генеративний штучний інтелект».
На сайті Times Higher Education опубліковано статтю Ренії Лопес-Озіебло «Як “Кармен” та гуманітарні науки можуть формувати навички, яких не має генеративний штучний інтелект».
У ній автор розмірковує про те, як гуманітарна освіта допомагає формувати культурне розуміння, критичне мислення та емоційну чутливість — ті риси, які залишаються принципово людськими навіть у часи стрімкого розвитку штучного інтелекту. Йдеться про освітню ініціативу з вивчення опери Жоржа Бізе «Кармен», яка стала основою для цілої серії культурних і навчальних подій у межах програми європейських студій. Студенти не лише ознайомились із класичним твором, а й побачили, як культурні явища можуть сприяти більш глибокому розумінню історії, суспільства та людської поведінки. Аналіз сюжету опери, історичного контексту та сучасних інтерпретацій твору дозволив молодим людям осмислити універсальні теми свободи, влади, насильства та соціальних ролей. Поширення ГШІ робить більш цінними та актуальними освітні практики, які розвивають людські здібності до інтерпретації, емпатії та морального судження. Алгоритми можуть швидко узагальнювати інформацію або генерувати тексти, однак вони не здатні переживати художній досвід, відчувати емоційний зміст мистецтва чи вести змістовну культурну дискусію. Саме тому гуманітарні дисципліни стають важливим простором для формування інтелектуальних і культурних компетентностей, які дозволяють осмислювати технологічні зміни та їхній вплив на суспільство. Важливою частиною педагогічного підходу є активні й творчі форми навчання. Наприклад, студентам пропонують переосмислити класичні тексти в сучасному контексті, інтерпретувати персонажів з позиції власного досвіду або відтворювати сцени з літературних чи мистецьких творів у формі рольових вправ. Такі завдання сприяють не лише засвоєнню матеріалу, а й розвитку аналітичного мислення, творчості та здатності встановлювати зв’язки між культурними епохами. Вони можуть долучитись до дискусії щодо сучасної цифрової культури (наприклад, популярних мемів), поступово наближаючись до більш глибокого аналізу культурних джерел. Отже, у світі, де штучний інтелект дедалі активніше автоматизує технічні завдання, гуманітарна освіта набуває нової цінності: вона формує здатність інтерпретувати культурні смисли, розуміти інші суспільства і вести змістовний діалог про складні моральні та соціальні питання.