МОДЕЛЬ ЕФЕКТИВНОЇ ВЗАЄМОДІЇ ІЗ CHATGPT

МОДЕЛЬ ЕФЕКТИВНОЇ ВЗАЄМОДІЇ ІЗ CHATGPT

На сайті Times Higher Education опублікована стаття Адріана Волбенка «Швидка розробка як академічна навичка: модель ефективної взаємодії із ChatGPT». 

На сайті Times Higher Education опублікована стаття Адріана Волбенка «Швидка розробка як академічна навичка: модель ефективної взаємодії із ChatGPT». 

У ній наголошується, що збір інформації від штучного інтелекту вимагає нового рівня навичок пошуку, який включає створення ефективних підказок, а також критичну навігацію та оцінку результатів. Незважаючи на активні дебати щодо доцільності використання штучного інтелекту у системі вищої освіти та оцінювання, вже зараз зрозуміло, що він буде використовуватись студентами незалежно від встановлених заборон й запровадження надійної ідентифікації спеціальними детекторами академічної доброчесності. Отже, нам потрібно змінити перестороги та почати розглядати використання штучного інтелекту як нову академічну навичку. Адже чат-боти ШІ, такі як ChatGPT, від початку задумувалися як помічники у системі пошуку інформації. Є усталена практика навчання студентів ефективним пошуково-дослідницьким навичкам, яка включає ефективний пошук у каталозі бібліотеки, пошук у базі даних, пошук за ключовими словами та використання логічних операторів, а коли літературу знайдено – розгортання методів skimming та сканування, таких як SQ3R, для пошуку корисної інформації. Наразі необхідно удосконалити модель ефективної роботи з інформацією для перетворення основних принципів швидкого проектування в академічну навичку. Адріан Дж. Волбенк пропонує модель ТАР (Topic, Action, Parameters /Тема, Дія, Параметри). Крок перший – ретельне визначення теми для найбільш точних та релевантних результатів (тема має бути сформульована точно та лаконічно, детально та конкретно, з урахуванням контексту). Крок другий – визначення мети та ролі для дії чи активності («написати резюме основних аргументів» або «діяти як учасник дебатів/філософ» дозволить спрямувати бота відповідно до вашого пріоритету). Третій крок – вказати додаткові деталі або обмеження, щоб уточнити відповідь (довжина відповіді, посилання, пояснення чи висновки). Без цього результати будуть надто розпливчастими чи узагальненими, щоб відповідати академічному стандарту вищої освіти, крім того, вони можуть створити когнітивне перевантаження надмірною сторонньою, недоречною чи ненадійною інформацією. Але відповідне навчання студентів та плекання у них критичного мислення дозволять використовувати ШІ в цілому та ChatGPT як зручний інструмент роботи з інформацією.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Освітянам_новини
2023-06-01
ЮНЕСКО: НАВЧАЛЬНІ ПРОГРАМИ ЗІ ШТУЧНОГО ІНТЕЛЕКТУ

ЮНЕСКО: НАВЧАЛЬНІ ПРОГРАМИ ЗІ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Організації Об’єднаних Націй з питань освіти, науки та культури (ЮНЕСКО) опубліковано звіт «Картографування схвалених урядом навчальних програм ШІ», підготовлений відділом з технологій і штучного інтелекту в освіті групи «Майбутнє навчання та інновацій».

На сайті Організації Об’єднаних Націй з питань освіти, науки та культури (ЮНЕСКО) опубліковано звіт «Картографування схвалених урядом навчальних програм ШІ», підготовлений відділом з технологій і штучного інтелекту в освіті групи «Майбутнє навчання та інновацій».
Упровадження штучного інтелекту вже докорінно змінило спосіб взаємодії людей у своїх суспільствах, що робить актуальними питання захисту прав людини, юридичної відповідальності, філософських аспектів використання штучного інтелекту та його подальшого розвитку. ШІ продовжить змінювати природу життя та роботи, і тому його базове розуміння зараз є критично важливим компонентом у концепції «освіченого громадянина», незалежно від того, стане він фахівцем з ШІ чи ні. Ураховуючи важливість компетенцій ШІ, траєкторії розвитку цієї галузі та інтеграції ШІ в інші сфери, доволі дивно, що так мало країн офіційно інтегрували цю тематику в освіту. Розуміння того, що таке штучний інтелект, як він працює та що він може робити, дає учням можливість краще розуміти свій світ, відстоювати власні права та права інших, а також використовувати технології і дані для суспільного блага. Уряди мають забезпечити створення навчальних програм ШІ з чітко визначеними результатами навчання, узгоджених з цілями національної політики та міжнародними стандартами прав людини та етики. Вони мають також заохочувати освітян до розвитку креативності студентів у сфері ШІ, розуміння етики, розуміння алгоритмів і даних, що лежать в основі інструментів ШІ. До розробки та упровадження навчальних програм з штучного інтелекту має застосовуватись гуманістичний підхід, щоб забезпечити захист фундаментальних прав людей (включаючи конфіденційність даних), сприяти інклюзії та справедливості. Технологія штучного інтелекту є новою предметною галуззю для шкіл у всьому світі. Урядам, школам і вчителям не вистачає знань для визначення компетенцій ШІ та розробки відповідних навчальних програм. У цьому дослідженні проаналізовані існуючі навчальні програми ШІ, зокрема – їх зміст та результати навчання, окреслено механізми розробки, валідації, узгодження, навчальних інструментів. Подано міркування щодо розроблення національних навчальних планів або інституційних програм навчання та упровадження стратегій розвитку компетенцій ШІ. Вивчено поточну практику розроблення та упровадження програм ШІ у початковій та середній школі. Під навчальними програмами ШІ у рамках даного дослідження розуміються структуровані програми навчання, що охоплюють тематику, пов’язану зі ШІ, які схвалені національним або регіональним урядом та орієнтовані на учнів загальноосвітніх шкіл. Воно не стосується навчальних програм, розроблених для закладів спеціалізованої технічної та професійної освіти, ЗВО та неформального навчання.
Детальніше: https://is.gd/WvtDQJ
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Освітянам_новини
2023-05-31
ВИКОРИСТАННЯ ТЕХНОЛОГІЙ ДЛЯ ЗДОРОВОГО КОГНІТИВНОГО СТАРІННЯ

ВИКОРИСТАННЯ ТЕХНОЛОГІЙ ДЛЯ ЗДОРОВОГО КОГНІТИВНОГО СТАРІННЯ

На сайті Times Higher Education опублікований матеріал «Використання технологій для сприяння здоровому когнітивному старінню».

На сайті Times Higher Education опублікований матеріал «Використання технологій для сприяння здоровому когнітивному старінню».
У ній наголошується, що світ старішає, збільшується тривалість життя, знижується народжуваність. Стають все більш затребуваними нові способи виявлення та боротьби з розумовою відсталістю у літніх людей. Адже по мірі зростання кількості та частки людей старшого віку, когнітивні проблеми стають дедалі гострішою проблемою для систем охорони здоров’я та суспільства в цілому. Тут можуть допомогти системи, побудовані на використанні робототехніки та штучного інтелекту, – вони не лише діагностують, а й придатні для реабілітації людей із когнітивними проблемами. Традиційні моделі діагностики та лікування вимагають залучення великої кількості лікарів-терапевтів та численних візитів пацієнтів до лікарень або центрів реабілітації. Використання передових технологій може подолати ці обмеження: команда фахівців з ОАЕ створила робота, який розмовляє арабською і за зовнішністю нагадує літнього чоловіка. Датчики та камери дозволяють «йому» виявляти емоції та рухи співрозмовника, він може автономно оцінювати когнітивні здібності у людей, які перенесли інсульт.
Детальніше: https://is.gd/sSPXIJ
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_ШтучнийІнтелект
2023-05-30
ЮНЕСКО: CHATGPT І ШТУЧНИЙ ІНТЕЛЕКТ У ВИЩИЙ ОСВІТІ

ЮНЕСКО: CHATGPT І ШТУЧНИЙ ІНТЕЛЕКТ У ВИЩИЙ ОСВІТІ

На сайті Організації Об’єднаних Націй з питань освіти, науки і культури (ЮНЕСКО) опубліковано Керівництво «ChatGPT і штучний інтелект: короткий посібник».

На сайті Організації Об’єднаних Націй з питань освіти, науки і культури (ЮНЕСКО) опубліковано Керівництво «ChatGPT і штучний інтелект: короткий посібник».
У ньому ChatGPT розглядаться як інструмент штучного інтелекту, який стрімко захопив світ, залучивши 100 мільйонів користувачів лише через два місяці після запуску. Посібник містить огляд роботи ChatGPT (безкоштовна версіїя GPT-3.5, доступна на момент написання документу) і пояснення щодо можливості його використання у вищій освіті. Також у ньому розглядаються етичні проблеми та ризики використання ШІ у вищій освіті, пропонуються практичні кроки з їх подолання чи нівелювання. Оскільки посібник було опубліковано у квітні 2023 року, а сфера штучного інтелекту постійно розвивається, читачам радять працювати з надійними джерелами.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-29
ВИКОРИСТАННЯ CHATGPT У ДОСЛІДЖЕННЯХ МОЖЕ МАТИ ДУЖЕ НЕГАТИВНІ НАСЛІДКИ

ВИКОРИСТАННЯ CHATGPT У ДОСЛІДЖЕННЯХ МОЖЕ МАТИ ДУЖЕ НЕГАТИВНІ НАСЛІДКИ

На сайті Times Higher Education опублікована стаття Дірка Ліндебаума «Дослідники, які використовують ChatGPT, схожі на індиків, які голосують на Різдво».

На сайті Times Higher Education опублікована стаття Дірка Ліндебаума «Дослідники, які використовують ChatGPT, схожі на індиків, які голосують на Різдво».
Автори звертають увагу на те, що технологія генеративного штучного інтелекту загрожує збіднити дослідження та зруйнувати здатність людей розуміти соціальний світ. З моменту запуску ChatGPT наприкінці листопада минулого року документів та статей про можливості й небезпеки ШІ для навчання та педагогіки стало багато. Але про вплив на дослідження дискусія майже не ведеться, тоді як в окремих дисциплінах суспільних наук ChatGPT вже діє як співавтор. Дослідники схвильовано стрибають на підніжку потяга ШІ, щоб встигнути використати новий інструмент та зробити дослідницький процес більш «ефективним». Однак, слід серйозно подумати як мінімум над трьома наслідками використання ChatGPT у дослідженнях. Перша проблема в тому, що використання технології для складання оглядів літератури збіднює наші власні аналітичні здібності та теоретичну уяву. Здатність розуміти поточну літературу і використовувати уяву має вирішальне значення для розв’язання теоретичних завдань, пояснень, розуміння практики. Ризик полягає в тому, що надмірна залежність від ChatGPT призведе до декваліфікації розумової сфери, зробить нас погано підготовленими до вирішення нових складних проблем. Друга проблема пов’язана з використанням ChatGPT у соціальних дослідженнях, що суттєво змінює спосіб теоретизації: технологія обробляє дані за допомогою обчислень та формальної раціональності, а не суджень та раціональності. Коли ШІ застосовується до теоретизування, він втілює припущення, що світ заснований на абстрактних та формальних процедурах, правилах та законах, які універсально застосовуються. Це – світогляд, який за твердженням Макса Вебера, завдає шкоди громадському життю. Третя проблема використання ChatGPT у дослідженнях полягає в тому, що це спотворює умови чесного та дійсно конкурентного ринку найкращих ідей. Публікації мають наукову цінність, разом із тим вони важливі для кар’єрного зростання та статусу вченого. Наявні труднощі з отриманням постійних посад породжують у людей сильну спокусу пропустити важку власну інтелектуальну роботу з обмірковування та написання добре продуманих статей у гонитві за довгим списком публікацій у резюме. Не усі готові побачити та прийняти ці ризики. Стрімкий процес залучення ChatGPT в усі види діяльності, включно з дослідницькою, дає підстави прогнозувати його широке використання у майбутньому. Тим не менш, важливо розуміти, що дослідники, зрештою можуть втратити здатність пояснювати та розуміти соціальний світ. То ж на питання «Хто хоче бути індичкою, яка голосує за це похмуре Різдво?» автори статті відповідають «Ні, нас не рахуйте».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-26
КОМЮНІКЕ ЛІДЕРІВ G7 У ХІРОСІМІ: АКТУАЛЬНІ ПИТАННЯ ЦИФРОВІЗАЦІЇ ТА ШІ

КОМЮНІКЕ ЛІДЕРІВ G7 У ХІРОСІМІ: АКТУАЛЬНІ ПИТАННЯ ЦИФРОВІЗАЦІЇ ТА ШІ

У комюніке, підписаному лідерами G7 у Хіросімі 20 травня 2023 року, розглядається широке коло питань у сфері політики, економіки, гуманітарної сфери та окремо представлене бачення перспектив розвитку науки, техніки, цифровізації і штучного інтелекту.

У комюніке, підписаному лідерами G7 у Хіросімі 20 травня 2023 року, розглядається широке коло питань у сфері політики, економіки, гуманітарної сфери та окремо представлене бачення перспектив розвитку науки, техніки, цифровізації і штучного інтелекту.
Зокрема, у частині цифровізації визнається, що технологічна трансформація зміцнює суспільства, економіку та систему управління. Але темпи технологічного розвитку прискорюються й необхідно вирішувати нові проблеми, виявляти потенційні прогалини, не припускаючись фрагментації у глобальному управлінні технологіями. У таких сферах, як штучний інтелект (ШІ), метавсесвіт та квантові технології потрібне ефективне управління на засадах справедливості, підзвітності, прозорості, безпеки, поваги до приватного життя та прав людини, основних свобод і захисту персональних даних. Необхідна співпраця з технологічними компаніями та іншими зацікавленими сторонами для забезпечення відповідального упровадження інновацій і технологій та утвердження безпеки в якості основного пріоритету. Наразі існує потреба в інклюзивному діалозі через відповідні форуми (зокрема – Глобальний технологічний форум ОЕСР) з усіма зацікавленими сторонами щодо цифрових питань. Багатосторонні підходи також важливі для розроблення стандартів штучного інтелекту на засадах поваги до юридично обов’язкових рамок, прозорості, відкритості, справедливості, неупередженості, конфіденційності та інклюзивності. G7 наголошує на важливості міжнародних дискусій щодо управління штучним інтелектом та сумісності між структурами управління ШІ й визнає, що підходи та політичні інструменти для досягнення спільного бачення надійного штучного інтелекту можуть відрізнятися між країнами. Також G7 підтримує розроблення інструментів для надійного ШІ за допомоги міжнародних організацій, буде заохочувати розробку й прийняття відповідних міжнародних технічних стандартів для ШІ. Наразі необхідно проаналізувати можливості та виклики генеративного штучного інтелекту, який стає все більш помітним у країнах і секторах, провести аналіз впливу політичних розробок і глобального партнерства. Для цього започатковується Хіросімський процес обговорення актуальних питань генеративного штучного інтелекту у форматі співпраці робочої групи G7 та ОЕСР. Основна увага буде приділена управлінню ШІ, захисту прав інтелектуальної власності (у т.ч. авторських прав), забезпеченню прозорості, реагуванню на маніпуляції інформацією, а також відповідальному використанню цих технологій. G7 вітає План дій зі сприяння глобальній сумісності між інструментами надійного штучного інтелекту та визнає потенціал технологій і віртуальних світів, для розвитку інноваційних можливостей в усіх галузях промисловості та суспільства. G7 підтверджує зацікавленість співробітництва у дослідженнях і практичних розробках комп’ютерних технологій та доручає своїм міністрам разом із ОЕСР розробити колективний підхід у цій сфері щодо сумісності, портативності та єдиних стандартів, а також шляхів подальшого сприяння цифровій торгівлі. G7 наголошує, що транскордонні потоки даних, інформації, ідей та знань створюють більшу продуктивність, більше інновацій та сприяють сталому розвитку, водночас піднімаючи проблеми, пов’язані з конфіденційністю, захистом даних, захистом інтелектуальної власності та безпекою, у т.ч. у сфері даних та хмарної інфраструктури. Необхідно й надалі сприяти вільному потоку довірчих даних для пожвавлення розвитку цифрової економіки за умов дотримання законних суспільних інтересів. G7 вітає Декларацію ОЕСР про державний доступ до персональних даних, що зберігаються суб’єктами приватного сектору, як інструмент підвищення довіри до транскордонних потоків даних і виступає проти фрагментації інтернету та використання цифрових технологій для порушення прав людини. Непересічне значення мають питання безпеки та стійкості цифрової інфраструктури. Тому буде продовжене обговорення ринкових тенденцій щодо відкритих, сумісних підходів, безпечної, стійкої та усталеної архітектури даних. G7 визнає необхідність подолання цифрового розриву та важливість ініціатив цифрової інтеграції й вирішення проблем міст («розумні міста»), сприяння інклюзивному розвитку, мобільності цифрових експертів, збільшення цифрового доступу на засадах справедливості, універсальності, доступності, безпеки, сумісності, захисту персональних даних, поваги до прав людини.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект
2023-05-22
АЖІОТАЖ НАВКОЛО CHATGPT ТА РИЗИКИ ДЛЯ НАВЧАННЯ

АЖІОТАЖ НАВКОЛО CHATGPT ТА РИЗИКИ ДЛЯ НАВЧАННЯ

На сайті Times Higher Education опублікована стаття Джона Гілла ««Експеримент» із ChatGPT становить для університетів небезпеку».

На сайті Times Higher Education опублікована стаття Джона Гілла ««Експеримент» із ChatGPT становить для університетів небезпеку».
У ній автор узагальнює погляди експертів щодо інструментів ШІ, висловлені під час публічних дискусій на конференції «Digital Universities UK». Фахівці у галузі цифрового навчання вважають, що університети досі повністю не усвідомили ризики від «експериментів» з генеративним штучним інтелектом. Нова технологія кардинально змінить підходи до викладання та способи оцінювання набутих знань. Директор із цифрового навчання Університету Арден Стюарт Аллан заявив, що це буде «проблемою лише тоді, коли ваша оцінка розрахована на запам’ятовування та узагальнення». Разом із тим він визнає, що «правові та політичні рамки ще не наздогнали технологію. Наразі ми перебуваємо у досить небезпечному становищі, коли технології ухвалюються без належного розуміння наслідків». Директорка з навчання, викладання та веб-сервісів Единбурзького університету Мелісса Хайтон зазначила: «в Единбурзі ми вітаємо наших колег-роботів, і протягом багатьох років роботи виконували для нас значну роботу, наприклад, допомагали в таких справах, як перетворення аудіо та відео на текст». Професор гібридного навчання в Університеті Манчестера Саймон Томпсон наголошує на існуванні ризику «гонки штучного інтелекту, якщо питання академічної доброчесності та оцінювання не будуть вирішені належним чином». Доктор Хайтон підтримала занепокоєння колег і разом із тим зазначила: «Ми маємо бути дуже обережними, щоб не дискримінувати студентів, які найбільше потребують допоміжних технологій».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-16
ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ

ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ

На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».

На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».
У ній наголошується, що університети повинні вирішувати питання етики та упередженості в ШІ та гарантувати, що студенти будуть «кращі, ніж ChatGPT». Автор спирається на виступ віце-президента й генерального менеджера з питань штучного інтелекту та аналітики компанії Intel доктора Вей Лі. Під час свого нещодавнього виступу на конференції «Digital Universities UK» він звернув увагу на те, що потреба у створенні «етичної основи» машинного навчання є нагальною. Адже наразі машинне навчання – це «чорна скринька»: «Ви отримуєте те, що отримуєте, і насправді не знаєте, чому саме». Наукові дослідження, на переконання одного з керівників Intel, можуть допомогти виявити фундаментальні етичні проблеми штучного інтелекту, серед яких, зокрема, вбудоване упередження. Команда фахівців Intel працює над розробкою технології, яка допоможе створити справедливі та інклюзивні системи ШІ, але промисловість більше зосереджена власне на процесі створення систем ШІ, а не на вирішенні етичних питань, які неодмінно виникатимуть. Незважаючи на нещодавній відкритий лист, підписаний експертами зі штучного інтелекту та керівниками галузі, у якому містився заклик до призупинення розробки штучного інтелекту до того моменту, поки людство «не будемо впевнене, що вплив ШІ буде позитивним, а ризики – керованими», розвиток ШІ не сповільнюється, інвестиції продовжуються, роботи тривають. Вей Лі упевнений, що «вища освіта отримала серйозний виклик і має можливість краще підготувати наступне покоління студентів у новому середовищі ШІ». Університети повинні навчати студентів бути «більше, ніж просто месенджером для ChatGPT».
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-15
ЧИ СТАНОВИТЬ ШТУЧНИЙ ІНТЕЛЕКТ ЗАГРОЗУ ДЛЯ НАВЧАННЯ І ВИКЛАДАННЯ

ЧИ СТАНОВИТЬ ШТУЧНИЙ ІНТЕЛЕКТ ЗАГРОЗУ ДЛЯ НАВЧАННЯ І ВИКЛАДАННЯ

На сайті Європейської асоціації університетів опублікована стаття Хелі Харрікарі «Величезні можливості штучного інтелекту, якщо ми навчимося його використовувати».

На сайті Європейської асоціації університетів опублікована стаття Хелі Харрікарі «Величезні можливості штучного інтелекту, якщо ми навчимося його використовувати».
У ній містяться міркування щодо того, чи становить штучний інтелект загрозу для навчання і викладання. Обґрунтовується позиція про необхідність сприйняття штучного інтелекту як складової масштабного процесу цифровізації вищої освіти, здатного створити величезні можливості для розвитку, якщо правильно його використовувати. Хелі вбачає можливості використання штучного інтелекту для набуття навичок і компетенцій, отримання даних, розробки навчальних програм, розвитку компетенцій поза навчальними аудиторіями. Вона наголошує, що «ШІ як такий – це не добре і не погано, але від людей, залежить, перетвориться він на загрозу чи на можливість. Я особисто сподіваюся, що ми лише починаємо розуміти можливості ШІ для освіти, оскільки це означає, що майбутнє сповнене можливостей. Найімовірніше, від нас, освітян, знадобляться чималі зусилля, щоб навчитися отримувати максимальну користь від ШІ, але також важко уявити, як ми, освітяни, можемо заплющити очі на події, які відбуваються просто зараз у суспільстві. Конструктивна позиція полягає у тому, щоб бути частиною змін і створювати майбутнє замість того, щоб будувати паркани».
Детальніше: https://bit.ly/3NX5tXX
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-11
РЕКОМЕНДАЦІЇ З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

РЕКОМЕНДАЦІЇ З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Організації об’єднаних націй з питань освіти, науки і культури (ЮНЕСКО) опубліковані «Рекомендації з етики штучного інтелекту: інструменти методології оцінки готовності».

На сайті Організації об’єднаних націй з питань освіти, науки і культури (ЮНЕСКО) опубліковані «Рекомендації з етики штучного інтелекту: інструменти методології оцінки готовності».
Наголошується, що світ офіційно вступив в епоху штучного інтелекту та змінюється такими високими темпами, яких до цього часу не було. Інструменти та додатки, побудовані на основі штучного інтелекту роблять суспільне життя більш простим і зручним. Але у нинішньому вигляді штучний інтелект також відтворює і посилює цілу низку соціальних проблем. Ураховуючи це, ЮНЕСКО розробила відповідні рекомендації, які були офіційно представлені під час першого Глобального форуму з етики штучного інтелекту та прийняті 193-ма країнами. Документ встановлює цінності та визначає принципи, засновані на захисті прав людини, й трансформує їх у конкретні політичні рекомендації, що ураховують всі етапи життєвого циклу ШІ. Основними елементами його імплементації будуть два ключових інструменти – Методологія оцінки готовності (RAM) та Оцінки етичного впливу (EIA). RAM охоплює п’ять вимірів: нормативно-правовий, соціальний та культурний, економічний, науково-освітній, технологічний та інфраструктурний. Кожен з них має свої підкатегорії, оцінювані за допомогою спеціальних індикаторів. RAM забезпечить порівняння різних країн для визначення передового досвіду.
Детальніше: https://bit.ly/3NRjqql
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-10