ЮНЕСКО: CHATGPT І ШТУЧНИЙ ІНТЕЛЕКТ У ВИЩИЙ ОСВІТІ

ЮНЕСКО: CHATGPT І ШТУЧНИЙ ІНТЕЛЕКТ У ВИЩИЙ ОСВІТІ

На сайті Організації Об’єднаних Націй з питань освіти, науки і культури (ЮНЕСКО) опубліковано Керівництво «ChatGPT і штучний інтелект: короткий посібник».

На сайті Організації Об’єднаних Націй з питань освіти, науки і культури (ЮНЕСКО) опубліковано Керівництво «ChatGPT і штучний інтелект: короткий посібник».
У ньому ChatGPT розглядаться як інструмент штучного інтелекту, який стрімко захопив світ, залучивши 100 мільйонів користувачів лише через два місяці після запуску. Посібник містить огляд роботи ChatGPT (безкоштовна версіїя GPT-3.5, доступна на момент написання документу) і пояснення щодо можливості його використання у вищій освіті. Також у ньому розглядаються етичні проблеми та ризики використання ШІ у вищій освіті, пропонуються практичні кроки з їх подолання чи нівелювання. Оскільки посібник було опубліковано у квітні 2023 року, а сфера штучного інтелекту постійно розвивається, читачам радять працювати з надійними джерелами.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-29
Share
ВИКОРИСТАННЯ CHATGPT У ДОСЛІДЖЕННЯХ МОЖЕ МАТИ ДУЖЕ НЕГАТИВНІ НАСЛІДКИ

ВИКОРИСТАННЯ CHATGPT У ДОСЛІДЖЕННЯХ МОЖЕ МАТИ ДУЖЕ НЕГАТИВНІ НАСЛІДКИ

На сайті Times Higher Education опублікована стаття Дірка Ліндебаума «Дослідники, які використовують ChatGPT, схожі на індиків, які голосують на Різдво».

На сайті Times Higher Education опублікована стаття Дірка Ліндебаума «Дослідники, які використовують ChatGPT, схожі на індиків, які голосують на Різдво».
Автори звертають увагу на те, що технологія генеративного штучного інтелекту загрожує збіднити дослідження та зруйнувати здатність людей розуміти соціальний світ. З моменту запуску ChatGPT наприкінці листопада минулого року документів та статей про можливості й небезпеки ШІ для навчання та педагогіки стало багато. Але про вплив на дослідження дискусія майже не ведеться, тоді як в окремих дисциплінах суспільних наук ChatGPT вже діє як співавтор. Дослідники схвильовано стрибають на підніжку потяга ШІ, щоб встигнути використати новий інструмент та зробити дослідницький процес більш «ефективним». Однак, слід серйозно подумати як мінімум над трьома наслідками використання ChatGPT у дослідженнях. Перша проблема в тому, що використання технології для складання оглядів літератури збіднює наші власні аналітичні здібності та теоретичну уяву. Здатність розуміти поточну літературу і використовувати уяву має вирішальне значення для розв’язання теоретичних завдань, пояснень, розуміння практики. Ризик полягає в тому, що надмірна залежність від ChatGPT призведе до декваліфікації розумової сфери, зробить нас погано підготовленими до вирішення нових складних проблем. Друга проблема пов’язана з використанням ChatGPT у соціальних дослідженнях, що суттєво змінює спосіб теоретизації: технологія обробляє дані за допомогою обчислень та формальної раціональності, а не суджень та раціональності. Коли ШІ застосовується до теоретизування, він втілює припущення, що світ заснований на абстрактних та формальних процедурах, правилах та законах, які універсально застосовуються. Це – світогляд, який за твердженням Макса Вебера, завдає шкоди громадському життю. Третя проблема використання ChatGPT у дослідженнях полягає в тому, що це спотворює умови чесного та дійсно конкурентного ринку найкращих ідей. Публікації мають наукову цінність, разом із тим вони важливі для кар’єрного зростання та статусу вченого. Наявні труднощі з отриманням постійних посад породжують у людей сильну спокусу пропустити важку власну інтелектуальну роботу з обмірковування та написання добре продуманих статей у гонитві за довгим списком публікацій у резюме. Не усі готові побачити та прийняти ці ризики. Стрімкий процес залучення ChatGPT в усі види діяльності, включно з дослідницькою, дає підстави прогнозувати його широке використання у майбутньому. Тим не менш, важливо розуміти, що дослідники, зрештою можуть втратити здатність пояснювати та розуміти соціальний світ. То ж на питання «Хто хоче бути індичкою, яка голосує за це похмуре Різдво?» автори статті відповідають «Ні, нас не рахуйте».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-26
Share
ГРОМАДСЬКЕ ОБГОВОРЕННЯ ПРОЄКТУ РАМКИ ЦИФРОВОЇ КОМПЕТЕНТНОСТІ ГРОМАДЯН

ГРОМАДСЬКЕ ОБГОВОРЕННЯ ПРОЄКТУ РАМКИ ЦИФРОВОЇ КОМПЕТЕНТНОСТІ ГРОМАДЯН

Міністерство цифрової трансформації України пропонує до громадського обговорення оновлений проєкт Рамки цифрової компетентності – інструменту оцінювання та підвищення рівня цифрових компетентностей.

Міністерство цифрової трансформації України пропонує до громадського обговорення оновлений проєкт Рамки цифрової компетентності – інструменту оцінювання та підвищення рівня цифрових компетентностей.
Рамка адаптована українськими експертами з урахуванням аналогічної Рамки для громадян ЄС (DigComp 2.2: The Digital Competence Framework for Citizens). Вона відрізняється від попередньої тим, що містить нові приклади та нові цифрові навички, зокрема – щодо використання штучного інтелекту. На основі оновленої української Рамки розробляється Цифрограм 3.0 – тест, що допоможе виявити загальний рівень цифрової грамотності людини, прогалини у її цифрових навичках і зорієнтує, які саме компетенції доцільно розвивати. Очікується, що громадяни будуть використувати Рамку як дороговказ у світі новітніх цифрових технологій і послуг. Також цією концептуально-референтною рамкою зможуть користуватись освітяни та розробники професійних стандартів (при створенні професійних рамок цифрової компетентності, розробці та оновленні професійних стандартів і кваліфікаційних характеристик, формуванні освітніх програм). Представникам органів влади та самоврядування, приватного сектору Рамка знадобиться при створенні стратегій, концепцій, планів дій та різних соціальних ініціатив, спрямованих на розвиток цифрових компетентностей різних категорій громадян. На переконання Мінцифри, запровадження Рамки допоможе зміцнити державну політику та ефективно планувати освітні ініціативи для підвищення рівня цифрової грамотності населення.
Фото: Мінцифри
#НРАТ_Усі_новини #НРАТ_Науковцям_обговорення #НРАТ_Освітянам_обговорення
2023-05-26
Share
ЧИ МОЖЕ ШТУЧНИЙ ІНТЕЛЕКТ БУТИ ЕКОЛОГІЧНИМ?

ЧИ МОЖЕ ШТУЧНИЙ ІНТЕЛЕКТ БУТИ ЕКОЛОГІЧНИМ?

На сайті Times Higher Education опублікована стаття Інеси Чихі та Інми Перал «Будь «зеленим», штучний інтелекте!».

На сайті Times Higher Education опублікована стаття Інеси Чихі та Інми Перал «Будь «зеленим», штучний інтелекте!».
Автори розмірковують над питанням: чи може штучний інтелект бути «зеленим» та відповідати викликам часу, допомагаючи у вирішенні складних проблем? Оскільки університети інтегрують курси зі штучного інтелекту в різні галузі знань та дисципліни, їм також необхідно показати студентам ризики та витрати від використання ШІ, особливо – з позицій збереження навколишнього середовища. Штучний інтелект дехто розглядає як майже магічний інструмент розв’язання складних проблем в економіці, фінансах, природничих і медичних науках, лінгвістиці, інженерних та комп’ютерних науках. Він став надзвичайно привабливим для студентів, спрощує рутинну роботу, відкриває нові можливості для кар’єри. Він інтегрується в системи освіти для поліпшення методів навчання та забезпечення більш ефективної взаємодії між викладачами та студентами, розробки інноваційних методів викладання. Оскільки він стає всюдисущим, суспільству треба подумати про те, як зробити ШІ екологічним і сталиим, адже він потребує значних ресурсів (енергія, машини тощо), великі дані не є безкоштовними. Студенти повинні розуміти, у чому полягають обмеження ШІ та співвідносили його переваги і недоліки. Інтеграція інформації про «зелений» штучний інтелект в навчальні програми є важливим чинником підвищення їх обізнаності. Рекомендуйте здобувачам освіти не занурюватися повністю у рішення, побудовані на використанні штучного інтелекту, комбінувати їх з традиційними методиками та алгоритмами, які є менш енергоємними. Крім того, усі проекти, які базуються на штучному інтелекті, повинні супроводжуватися дослідженням впливу на навколишнє середовище.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-23
Share
КОНКУРС ДЛЯ GREENTECH-СТАРТАПІВ

КОНКУРС ДЛЯ GREENTECH-СТАРТАПІВ

SynergistEIC оголосила конкурс для стартапів, які розробляють інноваційні рішення у сфері кліматичних чистих і «зелених» технологій, циркулярної економіки та агропродовольчого виробництва.

SynergistEIC оголосила конкурс для стартапів, які розробляють інноваційні рішення у сфері кліматичних чистих і «зелених» технологій, циркулярної економіки та агропродовольчого виробництва.
15 стартапів-переможців отримають гранти у розмірі 50 тис. євро, 3-місячну програму підтримки і прискорення для масштабування проєктів, прослухають серію семінарів на тему фінансування та закупівель у ЄС, а також матимуть можливість долучитись до інноваційної екосистеми ЄС. Участь у конкурсі можуть взяти: цифрові та глибокі технологічні стартапи, засновані в країнах-членах ЄС або асоційованих країнах, досвідом EIC Accelerator або без нього. Перевага надаватиметься цифровим та глибоким технологічним стартапам, зокрема – з використанням штучного інтелекту, машинного навчання та обробки мови, великих даних, передових обчислень, біоінженерії, інтернету нового покоління, блокчейну, інтернету речей. Заявку на участь можна подати до 14 червня 2023 року.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Інноваторам_новини
2023-05-23
Share
КОМЮНІКЕ ЛІДЕРІВ G7 У ХІРОСІМІ: АКТУАЛЬНІ ПИТАННЯ ЦИФРОВІЗАЦІЇ ТА ШІ

КОМЮНІКЕ ЛІДЕРІВ G7 У ХІРОСІМІ: АКТУАЛЬНІ ПИТАННЯ ЦИФРОВІЗАЦІЇ ТА ШІ

У комюніке, підписаному лідерами G7 у Хіросімі 20 травня 2023 року, розглядається широке коло питань у сфері політики, економіки, гуманітарної сфери та окремо представлене бачення перспектив розвитку науки, техніки, цифровізації і штучного інтелекту.

У комюніке, підписаному лідерами G7 у Хіросімі 20 травня 2023 року, розглядається широке коло питань у сфері політики, економіки, гуманітарної сфери та окремо представлене бачення перспектив розвитку науки, техніки, цифровізації і штучного інтелекту.
Зокрема, у частині цифровізації визнається, що технологічна трансформація зміцнює суспільства, економіку та систему управління. Але темпи технологічного розвитку прискорюються й необхідно вирішувати нові проблеми, виявляти потенційні прогалини, не припускаючись фрагментації у глобальному управлінні технологіями. У таких сферах, як штучний інтелект (ШІ), метавсесвіт та квантові технології потрібне ефективне управління на засадах справедливості, підзвітності, прозорості, безпеки, поваги до приватного життя та прав людини, основних свобод і захисту персональних даних. Необхідна співпраця з технологічними компаніями та іншими зацікавленими сторонами для забезпечення відповідального упровадження інновацій і технологій та утвердження безпеки в якості основного пріоритету. Наразі існує потреба в інклюзивному діалозі через відповідні форуми (зокрема – Глобальний технологічний форум ОЕСР) з усіма зацікавленими сторонами щодо цифрових питань. Багатосторонні підходи також важливі для розроблення стандартів штучного інтелекту на засадах поваги до юридично обов’язкових рамок, прозорості, відкритості, справедливості, неупередженості, конфіденційності та інклюзивності. G7 наголошує на важливості міжнародних дискусій щодо управління штучним інтелектом та сумісності між структурами управління ШІ й визнає, що підходи та політичні інструменти для досягнення спільного бачення надійного штучного інтелекту можуть відрізнятися між країнами. Також G7 підтримує розроблення інструментів для надійного ШІ за допомоги міжнародних організацій, буде заохочувати розробку й прийняття відповідних міжнародних технічних стандартів для ШІ. Наразі необхідно проаналізувати можливості та виклики генеративного штучного інтелекту, який стає все більш помітним у країнах і секторах, провести аналіз впливу політичних розробок і глобального партнерства. Для цього започатковується Хіросімський процес обговорення актуальних питань генеративного штучного інтелекту у форматі співпраці робочої групи G7 та ОЕСР. Основна увага буде приділена управлінню ШІ, захисту прав інтелектуальної власності (у т.ч. авторських прав), забезпеченню прозорості, реагуванню на маніпуляції інформацією, а також відповідальному використанню цих технологій. G7 вітає План дій зі сприяння глобальній сумісності між інструментами надійного штучного інтелекту та визнає потенціал технологій і віртуальних світів, для розвитку інноваційних можливостей в усіх галузях промисловості та суспільства. G7 підтверджує зацікавленість співробітництва у дослідженнях і практичних розробках комп’ютерних технологій та доручає своїм міністрам разом із ОЕСР розробити колективний підхід у цій сфері щодо сумісності, портативності та єдиних стандартів, а також шляхів подальшого сприяння цифровій торгівлі. G7 наголошує, що транскордонні потоки даних, інформації, ідей та знань створюють більшу продуктивність, більше інновацій та сприяють сталому розвитку, водночас піднімаючи проблеми, пов’язані з конфіденційністю, захистом даних, захистом інтелектуальної власності та безпекою, у т.ч. у сфері даних та хмарної інфраструктури. Необхідно й надалі сприяти вільному потоку довірчих даних для пожвавлення розвитку цифрової економіки за умов дотримання законних суспільних інтересів. G7 вітає Декларацію ОЕСР про державний доступ до персональних даних, що зберігаються суб’єктами приватного сектору, як інструмент підвищення довіри до транскордонних потоків даних і виступає проти фрагментації інтернету та використання цифрових технологій для порушення прав людини. Непересічне значення мають питання безпеки та стійкості цифрової інфраструктури. Тому буде продовжене обговорення ринкових тенденцій щодо відкритих, сумісних підходів, безпечної, стійкої та усталеної архітектури даних. G7 визнає необхідність подолання цифрового розриву та важливість ініціатив цифрової інтеграції й вирішення проблем міст («розумні міста»), сприяння інклюзивному розвитку, мобільності цифрових експертів, збільшення цифрового доступу на засадах справедливості, універсальності, доступності, безпеки, сумісності, захисту персональних даних, поваги до прав людини.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект
2023-05-22
Share
АЖІОТАЖ НАВКОЛО CHATGPT ТА РИЗИКИ ДЛЯ НАВЧАННЯ

АЖІОТАЖ НАВКОЛО CHATGPT ТА РИЗИКИ ДЛЯ НАВЧАННЯ

На сайті Times Higher Education опублікована стаття Джона Гілла ««Експеримент» із ChatGPT становить для університетів небезпеку».

На сайті Times Higher Education опублікована стаття Джона Гілла ««Експеримент» із ChatGPT становить для університетів небезпеку».
У ній автор узагальнює погляди експертів щодо інструментів ШІ, висловлені під час публічних дискусій на конференції «Digital Universities UK». Фахівці у галузі цифрового навчання вважають, що університети досі повністю не усвідомили ризики від «експериментів» з генеративним штучним інтелектом. Нова технологія кардинально змінить підходи до викладання та способи оцінювання набутих знань. Директор із цифрового навчання Університету Арден Стюарт Аллан заявив, що це буде «проблемою лише тоді, коли ваша оцінка розрахована на запам’ятовування та узагальнення». Разом із тим він визнає, що «правові та політичні рамки ще не наздогнали технологію. Наразі ми перебуваємо у досить небезпечному становищі, коли технології ухвалюються без належного розуміння наслідків». Директорка з навчання, викладання та веб-сервісів Единбурзького університету Мелісса Хайтон зазначила: «в Единбурзі ми вітаємо наших колег-роботів, і протягом багатьох років роботи виконували для нас значну роботу, наприклад, допомагали в таких справах, як перетворення аудіо та відео на текст». Професор гібридного навчання в Університеті Манчестера Саймон Томпсон наголошує на існуванні ризику «гонки штучного інтелекту, якщо питання академічної доброчесності та оцінювання не будуть вирішені належним чином». Доктор Хайтон підтримала занепокоєння колег і разом із тим зазначила: «Ми маємо бути дуже обережними, щоб не дискримінувати студентів, які найбільше потребують допоміжних технологій».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-05-16
Share
ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ

ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ

На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».

На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».
У ній наголошується, що університети повинні вирішувати питання етики та упередженості в ШІ та гарантувати, що студенти будуть «кращі, ніж ChatGPT». Автор спирається на виступ віце-президента й генерального менеджера з питань штучного інтелекту та аналітики компанії Intel доктора Вей Лі. Під час свого нещодавнього виступу на конференції «Digital Universities UK» він звернув увагу на те, що потреба у створенні «етичної основи» машинного навчання є нагальною. Адже наразі машинне навчання – це «чорна скринька»: «Ви отримуєте те, що отримуєте, і насправді не знаєте, чому саме». Наукові дослідження, на переконання одного з керівників Intel, можуть допомогти виявити фундаментальні етичні проблеми штучного інтелекту, серед яких, зокрема, вбудоване упередження. Команда фахівців Intel працює над розробкою технології, яка допоможе створити справедливі та інклюзивні системи ШІ, але промисловість більше зосереджена власне на процесі створення систем ШІ, а не на вирішенні етичних питань, які неодмінно виникатимуть. Незважаючи на нещодавній відкритий лист, підписаний експертами зі штучного інтелекту та керівниками галузі, у якому містився заклик до призупинення розробки штучного інтелекту до того моменту, поки людство «не будемо впевнене, що вплив ШІ буде позитивним, а ризики – керованими», розвиток ШІ не сповільнюється, інвестиції продовжуються, роботи тривають. Вей Лі упевнений, що «вища освіта отримала серйозний виклик і має можливість краще підготувати наступне покоління студентів у новому середовищі ШІ». Університети повинні навчати студентів бути «більше, ніж просто месенджером для ChatGPT».
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-15
Share
ЧИ СТАНОВИТЬ ШТУЧНИЙ ІНТЕЛЕКТ ЗАГРОЗУ ДЛЯ НАВЧАННЯ І ВИКЛАДАННЯ

ЧИ СТАНОВИТЬ ШТУЧНИЙ ІНТЕЛЕКТ ЗАГРОЗУ ДЛЯ НАВЧАННЯ І ВИКЛАДАННЯ

На сайті Європейської асоціації університетів опублікована стаття Хелі Харрікарі «Величезні можливості штучного інтелекту, якщо ми навчимося його використовувати».

На сайті Європейської асоціації університетів опублікована стаття Хелі Харрікарі «Величезні можливості штучного інтелекту, якщо ми навчимося його використовувати».
У ній містяться міркування щодо того, чи становить штучний інтелект загрозу для навчання і викладання. Обґрунтовується позиція про необхідність сприйняття штучного інтелекту як складової масштабного процесу цифровізації вищої освіти, здатного створити величезні можливості для розвитку, якщо правильно його використовувати. Хелі вбачає можливості використання штучного інтелекту для набуття навичок і компетенцій, отримання даних, розробки навчальних програм, розвитку компетенцій поза навчальними аудиторіями. Вона наголошує, що «ШІ як такий – це не добре і не погано, але від людей, залежить, перетвориться він на загрозу чи на можливість. Я особисто сподіваюся, що ми лише починаємо розуміти можливості ШІ для освіти, оскільки це означає, що майбутнє сповнене можливостей. Найімовірніше, від нас, освітян, знадобляться чималі зусилля, щоб навчитися отримувати максимальну користь від ШІ, але також важко уявити, як ми, освітяни, можемо заплющити очі на події, які відбуваються просто зараз у суспільстві. Конструктивна позиція полягає у тому, щоб бути частиною змін і створювати майбутнє замість того, щоб будувати паркани».
Детальніше: https://bit.ly/3NX5tXX
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-11
Share
РЕКОМЕНДАЦІЇ З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

РЕКОМЕНДАЦІЇ З ЕТИКИ ШТУЧНОГО ІНТЕЛЕКТУ

На сайті Організації об’єднаних націй з питань освіти, науки і культури (ЮНЕСКО) опубліковані «Рекомендації з етики штучного інтелекту: інструменти методології оцінки готовності».

На сайті Організації об’єднаних націй з питань освіти, науки і культури (ЮНЕСКО) опубліковані «Рекомендації з етики штучного інтелекту: інструменти методології оцінки готовності».
Наголошується, що світ офіційно вступив в епоху штучного інтелекту та змінюється такими високими темпами, яких до цього часу не було. Інструменти та додатки, побудовані на основі штучного інтелекту роблять суспільне життя більш простим і зручним. Але у нинішньому вигляді штучний інтелект також відтворює і посилює цілу низку соціальних проблем. Ураховуючи це, ЮНЕСКО розробила відповідні рекомендації, які були офіційно представлені під час першого Глобального форуму з етики штучного інтелекту та прийняті 193-ма країнами. Документ встановлює цінності та визначає принципи, засновані на захисті прав людини, й трансформує їх у конкретні політичні рекомендації, що ураховують всі етапи життєвого циклу ШІ. Основними елементами його імплементації будуть два ключових інструменти – Методологія оцінки готовності (RAM) та Оцінки етичного впливу (EIA). RAM охоплює п’ять вимірів: нормативно-правовий, соціальний та культурний, економічний, науково-освітній, технологічний та інфраструктурний. Кожен з них має свої підкатегорії, оцінювані за допомогою спеціальних індикаторів. RAM забезпечить порівняння різних країн для визначення передового досвіду.
Детальніше: https://bit.ly/3NRjqql
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
2023-05-10
Share