ДОСЛІДЖЕННЯ У ГАЛУЗІ ТЕХНОЛОГІЙ ШІ

ДОСЛІДЖЕННЯ У ГАЛУЗІ ТЕХНОЛОГІЙ ШІ

Для розгортання досліджень у галузі технологій штучного інтелекту Ілон Маск створює нову компанію «xAI».

Для розгортання досліджень у галузі технологій штучного інтелекту Ілон Маск створює нову компанію «xAI».
До команди дослідників входять фахівці, які раніше працювали в DeepMind, OpenAI, Google Research, Microsoft Research, Tesla та Університеті Торонто та займались розробкою AlphaStar, AlphaCode, Inception, Minerva, GPT-3.5 та GPT-4. Є багато невирішених питань – про природу гравітації, чому немає масових свідчень існування інопланетян, парадокс Фермі та ін. Якщо поставити ці питання ГШІ, відповіді ми не отримаємо і це потрібно виправити, вважає Ілон Маск. Він каже “Не можна нічого називати ШІ, поки комп’ютер не вирішить хоча б одне фундаментальне питання”. Метою xAI є створення штучного загального інтелекту з метою розуміння Всесвіту, який буде «максимально цікавим» та «цікавим до істини». xAI використовуватиме важкі обчислення, а математика, яка буде застосовуватися, може відкрити нові перспективи для створення «Загальної теорії / Теорії усього». Нова компанія є окремою від X Corp, але планує тісно співпрацювати з X /Twitter, Tesla та іншими, щоб досягти прогресу у виконанні своєї місії. Наразі вона активно набирає до своєї команди досвідчених дослідників, інженерів, технічний персонал. Додаткова інформація про xAI буде опублікована за кілька тижнів.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-07
Поширити
ЯК СПОНУКАТИ СТУДЕНТІВ ДУМАТИ, НЕ ПОКЛАДАЮЧИСЬ ЛИШЕ НА ВІДПОВІДІ ШІ

ЯК СПОНУКАТИ СТУДЕНТІВ ДУМАТИ, НЕ ПОКЛАДАЮЧИСЬ ЛИШЕ НА ВІДПОВІДІ ШІ

На сайті Times Higher Education опублікована стаття Сари Клайн «Як ChatGPT знищив мої дошки обговорень і викликав нові підказки».

На сайті Times Higher Education опублікована стаття Сари Клайн «Як ChatGPT знищив мої дошки обговорень і викликав нові підказки».
Вона ділиться своїм досвідом щодо навчання та надає підказки, які саме у нових умовах присутності ГШІ працювати зі студентами, щоб вони самостійно мислили та брали участь у обговоренні курсу. Дискусійні дошки з’явились у 1970-х роках та зазвичай були популярним методом залучення студентів, пропонуючи відкритий текстовий формат спілкування. Однак використання цих дошок втрачає сенс, коли йдеться про студентів, що не мають ентузіазму і не зацікавлені в імпровізації. ChatGPT остаточно звів нанівець спроби використовувати ці дошки обговорення. На заняттях студенти брали підказки, які були навмисно простими, щоб стимулювати міжособистісний обмін одними-двома абзацами, і скидали їх у ChatGPT, потім копіювали його відповіді та вставляли отримані результати на дошку обговорень, навіть не читаючи їх. Щоб вирішити цю проблему, Сара змінювала підказки таким чином, щоб завадити студентам використовувати ШI. Як це зробити? Потрібно використовувати підказки, які змушують висловити особисту думку; просити студентів додавати посилання на джерела; використовувати найбільш актуальні поточні або місцеві події; додати творчості – нехай студенти сфотографують подію, зроблять ілюстрацію та підпишуть її, накресліть від руки схему або зроблять самостійно діаграму; доручіть з підручних матеріалів зробити тривимірну модель або зняти коротке відео чи зробити анімацію щоб пояснити теорію. Звісно, це потребує від викладача багато зусиль, треба постійно бути готовим креативити й відповідати на нові виклики.
Детальніше: https://is.gd/PfZije
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Освітянам_новини
2023-08-04
Поширити
ЯК ШТУЧНИЙ ІНТЕЛЕКТ ЗМІНЮЄ IP-СФЕРУ

ЯК ШТУЧНИЙ ІНТЕЛЕКТ ЗМІНЮЄ IP-СФЕРУ

Патентне відомство Австралії оприлюднило звіт «Генеративний ШІ та система IP: вивчення можливого майбутнього у контексті прав ІВ».

Патентне відомство Австралії оприлюднило звіт «Генеративний ШІ та система IP: вивчення можливого майбутнього у контексті прав ІВ».
У ньому наголошується, що інтелектуальна власність є важливим економічним активом. У нестабільному та різноманітному світі IP- відомство створює доступну, збалансовану та ефективну систему ІВ, контролює функції товарного знаку, патенту, прав на дизайн та прав селекціонерів. Раптова поява генеративного штучного інтелекту із його здатності продукувати новий контент, порушує питання про те, чи залишається вірним традиційне розуміння інтелектуальної власності. Щоб відповісти на ці та інші питання, венчурна група IP Australia розробила серію сценаріїв впливу ШІ на окремі права ІВ та систему ІВ загалом, а також суспільство. Дослідження покладається на думку експертів та результати опитування зацікавлених сторін (клієнти, науковці, компанії). Дослідники дійшли висновку, що застосування ГШІ зменшує бар’єр для входу до сфери інновацій. Це, скоріше всього, матиме вплив на функціонування системи ІВ та управління нею, призведе до появи більшої кількості інноваційного контенту, більш легкого доступу до створення інновацій, більшої кількості учасників. Важлива парадигма, яка потребуватиме відповідного законодавчого регулювання та адаптації вже існуючих норм, полягає у тому, що застосування ГШІ зробило неможливим покладання на припущення за замовчуванням, що новий контент (включаючи ідеї та винаходи) є виключно результатом зусиль людини. У звіті визначені аспекти використання ШІ, які турбують найбільше: штучний інтелект зловживатиме, використовуючи для генерації контенту чужу інтелектуальну власність; інструменти ГШІ нададуть іншим стейкхолдерам несправедливу перевагу на ринку. Разом із тим експерти погодились, що разом з тим ШІ заохочує інновації, а його роль та можливості потребують подальшого ретельного дослідження і належного регулювання.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_Інноваторам_новини
2023-08-04
Поширити
АКАДЕМІЧНЕ ПИСЬМО В ЕПОХУ ШІ

АКАДЕМІЧНЕ ПИСЬМО В ЕПОХУ ШІ

На сайті Times Higher Education опублікована стаття Эндрю Мура «Чи є сенс викладати академічне письмо в епоху ШІ?».

На сайті Times Higher Education опублікована стаття Эндрю Мура «Чи є сенс викладати академічне письмо в епоху ШІ?».
Автор задається питанням, якщо есе, написані нормальним стилем можуть бути створені за лічені секунди завдяки застосуванню технологій штучного інтелекту, чи потрібно викладачам звертати увагу на стиль при оцінюванні роботи студента? Відповідь, яку він пропонує, традиційна: здобувачі освіти та випускники університетів повинні вміти гарно писати, чітко викладаючи свої думки. Академічне письмо є важливою навичкою для академічного та професійного життя, тому в різних дисциплінах основою навчання студентів є підготовка есе, звітів, дослідницьких робіт та оглядів літератури. Молоді люди мають розвивати своє володіння мовою, розуміння структури та форми. Однак у епоху ШІ саме поняття «писати» змінюється. У недалекому майбутньому студент, який отримав письмове завдання, з більшою ймовірністю почав би збирати свої розрізнені думки та недопрацьовані ідеї, надиктовувати їх на диктофон й використовувати спеціальні додатки для перетворення мови на текст. Наразі він може передати ці нотатки ChatGPT і попросити перетворити їх на зв’язне есе. Так у нього з’явиться чернетка, яку він має ретельно відредагувати. Але найскоріше за все він просто зробить кілька швидких змін на своєму телефоні перед відправкою викладачу для оцінювання результата. Однак, незважаючи на те, що такого роду зміни є неминучими, не можна ставитися до них байдуже. Вони висувають до нас нові вимоги, потребують нової політики. Якщо текст, сформований ШІ стане новою нормою, викладачам доведеться переглянути мету та практику навчання академічному письму. Якщо письмові завдання стануть ненадійними інструментами оцінювання, потрібно буде трансформувати багато елементів та підходів у системі вищої освіти, зробивши акцент на оригінальності ідей.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-03
Поширити
ОЕСР: ОЦІНКА ВПЛИВУ ШІ НА РОБОЧІ МІСЦЯ

ОЕСР: ОЦІНКА ВПЛИВУ ШІ НА РОБОЧІ МІСЦЯ

На сайті Radio France Internationale опубліковане інтерв’ю директора по дослідженням ОЕСР Стефано Скарпетта під заголовком «За даними ОЕСР майже кожне десяте робоче місце може бути замінене штучним інтелектом упродовж десятиліття».

На сайті Radio France Internationale опубліковане інтерв’ю директора по дослідженням ОЕСР Стефано Скарпетта під заголовком «За даними ОЕСР майже кожне десяте робоче місце може бути замінене штучним інтелектом упродовж десятиліття».
Стефано наголошує, що згідно з результатами дослідження ОЕСР очікується, що розвиток штучного інтелекту вплине на 24% робочих місць, а біля 9% можуть взагалі зникнути. Експерти Організації економічного співробітництва та розвитку вважають, що висококваліфіковані працівники ризикують бути заміненими штучним інтелектом. Законодавці ЄС закладають основу для регулювання ризиків, спричинених розвитком технологій ШІ, ґрунтуючись на попередньому опитуванні. Тоді близько 30 % респондентів висловили стурбованість розвитком ШІ, а 19 % були «дуже стурбовані» і вважали, що їхні робочі місця – під загрозою. Але цей прогноз після запуску ChatGPT застарів. Генератор контенту від американської компанії OpenAI, змінює правила гри: «може бути втрачено більше робочих місць, ніж очікувалося, і вплив на сферу праці виявляється більш масштабним, ніж очікувалось». У березні цього року американський банк Goldman Sachs опублікував оцінку, згідно з якою 300 мільйонів робочих місць у всьому світі можуть бути замінені штучним інтелектом у найближчі кілька років. В основному це офісна робота та адміністративні завдання. Провідні технологічні лідери та дослідники закликають до «паузи» у розвитку ШІ. За даними Всесвітнього економічного форуму упродовж наступних п'яти років, ймовірно, буде втрачено 83 млн. робочих місць, але можуть бути створені ще 69 млн. робочих місць із високим попитом у секторі кібербезпеки та нових технологій.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_OECD #НРАТ_ШтучнийІнтелект
2023-08-03
Поширити
РЕЦЕНЗЕНТИ ЗАЯВОК НА АВСТРАЛІЙСЬКІ ГРАНТИ ВИКОРИСТОВУВАЛИ ЧАТ-БОТИ ЗАМІСТЬ ЗДІЙСНЕННЯ ПРОФЕСІЙНОЇ  ЕКСПЕРТИЗИ

РЕЦЕНЗЕНТИ ЗАЯВОК НА АВСТРАЛІЙСЬКІ ГРАНТИ ВИКОРИСТОВУВАЛИ ЧАТ-БОТИ ЗАМІСТЬ ЗДІЙСНЕННЯ ПРОФЕСІЙНОЇ ЕКСПЕРТИЗИ

На сайті Times Higher Education опублікована стаття Тома Уильямса «Експерти з оцінювання грантів звинувачуються у використанні ChatGPT для написання відгуків».

На сайті Times Higher Education опублікована стаття Тома Уильямса «Експерти з оцінювання грантів звинувачуються у використанні ChatGPT для написання відгуків».
У ній повідомляється про виявлення кандидатами на отримання грантового фінансування в рамках схеми Discovery Projects Австралійської дослідницької ради використання рецензентами чат-ботів зі штучним інтелектом. Рецензенти замість здійснення фахової експертизи передоручали цю роботу чат-ботам, які готували оцінку для офіційних відгуків. «Контрольні» ознаки участі ChatGPT у відгуках на заявки було виявлено згідно з обліковим записом ARC Tracker. Том вважає, що така недоброчесна практика була «повністю передбачуваною» через брак часу у дослідників, і через те, що ARC «нічого не зробив» для запобігання використання чат-ботів ШІ. Така пересторога відсутня і в посібнику по оцінці грантів. Дослідник академічної доброчесності та співдиректор Центру досліджень у галузі оцінювання та цифрового навчання в Університеті Дікіна Філіп Доусон висловився доволі жорстко: «до такої поведінки треба ставитися гірше, ніж просто до недоречного відкликання. Дослідницькі гранти повинні бути конфіденційними, і передача їх … OpenAI є серйозним порушенням інтелектуальної власності». зі свого боку ARC заявив, що «розгляне низку питань щодо використання генеративного штучного інтелекту, які використовують алгоритми для створення нового контенту (наприклад, ChatGPT) і які можуть створювати проблеми з конфіденційністю та безпекою для досліджень й для Адміністрації грантової програми». Рецензенти мають певні зобов'язання щодо забезпечення конфіденційності інформації, отриманої в рамках процесів Національної конкурсної програми грантів, а Австралійський кодекс відповідального проведення досліджень встановлює, що «люди повинні брати участь в експертній оцінці таким чином, щоб це було справедливим, суворим та своєчасним і зберігало конфіденційність змісту».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-02
Поширити
НАГАЛЬНІ ПИТАННЯ РЕГУЛЮВАННЯ ШІ В ЕКОСИСТЕМІ ВІДКРИТОГО ВИХІДНОГО КОДУ

НАГАЛЬНІ ПИТАННЯ РЕГУЛЮВАННЯ ШІ В ЕКОСИСТЕМІ ВІДКРИТОГО ВИХІДНОГО КОДУ

На сторінці блогу GitHub опублікована стаття Петера Чихона «Як домогтися правильного регулювання ШІ для відкритого вихідного коду».

На сторінці блогу GitHub опублікована стаття Петера Чихона «Як домогтися правильного регулювання ШІ для відкритого вихідного коду».
У ній представлено коаліційний документ з інформацією про остаточне обговорення Закону ЄС про штучний інтелект. Автор наголошує, що зазначений закон має стати першим всеосяжним регламентом у галузі штучного інтелекту та запропонувати модель для політиків у всьому світі. Але є певний ризик того, що цей закон може регулювати проекти з відкритим вихідним кодом, ніби вони були комерційними продуктами або розгорнутими системами ШІ. Це було б несумісно з практикою здійснення розробок із відкритим вихідним кодом та суперечило б потребам окремих розробників і некомерційних дослідницьких організацій. Закон може загальмувати розробки у галузі ШІ з відкритим вихідним кодом і, таким чином, може підірвати його цілі щодо просування відповідальних інновацій відповідно до європейських цінностей. Для пояснення позиції було опубліковано програмний документ «Підтримка відкритого вихідного коду та відкритої науки у Законі про ШІ». Коаліція провідних організацій у галузі відкритої культури та штучного інтелекту – Creative Commons, EleutherAI, Hugging Face, LAION та Open Future – мають намір використати цей документ як ресурс для політиків, які займаються регулюванням штучного інтелекту. У Європейському Союзі та у світі в цілому вкрай важливо забезпечити підтримку екосистему штучного інтелекту з відкритим вихідним кодом.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-02
Поширити
CHATGPT НА ANDROID СТАВ ДОСТУПНИЙ ПО ВСЬОМУ СВІТУ

CHATGPT НА ANDROID СТАВ ДОСТУПНИЙ ПО ВСЬОМУ СВІТУ

1 серпня 2023 року додаток для роботи з ChatGPT став доступним на пристроях Android.

1 серпня 2023 року додаток для роботи з ChatGPT став доступним на пристроях Android.
Усі, хто підписався заздалегідь, отримали відповідне повідомлення напередодні. Додаток можна завантажити та використовувати у повному обсязі його звичного функціоналу у всіх країнах, що підтримують Google Play. Раніше він був доступний лише у США, Індії, Бангладеш та Бразилії. У додатку для Android користувачі можуть отримати всі функції, що й у веб-версії ChatGPT. Завдяки доступності на пристроях Android чат стає зручним мобільним інструментом для підвищення продуктивності роботи у будь-який час та в будь-якому місці. Дані синхронізуються і на усіх гаджетах представлена повна історія діалогів. Користувачі преміальної передплати отримують ексклюзивний доступ до моделі GPT-4, ранній доступ до нових функцій та короткий час відповіді. Програма дозволяє спілкуватися з потужною нейронною мережею, здатною розуміти та відповідати на запити, роблячи розмови з додатком більш природними та продуктивними. Серед переваг – багатофункціональність: його можна використовувати для створення текстів, генерації ідей, отримання допомоги з освітньою метою тощо. Водночас слід пам'ятати, що чат може давати некоректні відповіді (особливо – при нечітких запитах), вигадувати першоджерела, «галюцинувати», він обмежений у роботі з мережею інтернет. Компанія OpenAI продовжує працювати над покращенням якості системи, аналізуючи результати та використовуючи відгуки користувачів, для чого постійно інвестує у дослідження та розробки.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Поширити
ШТУЧНИЙ ІНТЕЛЕКТ: МЕДИЧНИЙ ЧАТ-БОТ ВІД GOOGLE

ШТУЧНИЙ ІНТЕЛЕКТ: МЕДИЧНИЙ ЧАТ-БОТ ВІД GOOGLE

На сайті видання про розвиток технологій «The Verge» опубліковано повідомлення про тестування у дослідній американській лікарні медичного чат-боту Google, побудованому на технологіях штучного інтелекту.

На сайті видання про розвиток технологій «The Verge» опубліковано повідомлення про тестування у дослідній американській лікарні медичного чат-боту Google, побудованому на технологіях штучного інтелекту.
Med-PaLM – це велика мовна модель, призначена для надання високоякісних відповідей на медичні запитання, яка використовує LLM від Google, адаптовану до сфери медицини, яка навчалась на основі медичних оглядів, матеріалів медичних досліджень і запитів споживачів. Вона стала першою системою штучного інтелекту, яка перевершила прохідний бал іспиту US Medic License Exam (USMLE). Med-PaLM генерує точні розгорнуті відповіді на запитання щодо здоров’я споживачів, які оцінювались клініцистами та неклініцистами різних професій і країн за критеріями наукової достовірності, точності, медичного консенсусу, належних міркувань, неупередженості, можливої шкоди. Очікується, що у найближчі декілька місяців ця модель буде доступна для клієнтів Google Cloud з метою більш широкого тестування.
Фото: Google
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Поширити
CHATGPT ПОВИНЕН ПОСИЛАТИСЬ НА ДЖЕРЕЛА ТА ВКАЗУВАТИ НА НЕВИЗНАЧЕНІСТЬ

CHATGPT ПОВИНЕН ПОСИЛАТИСЬ НА ДЖЕРЕЛА ТА ВКАЗУВАТИ НА НЕВИЗНАЧЕНІСТЬ

На сайті Times Higher Education опублікована стаття Джека Гроува «ШІ має визнавати наукову невизначеність, вважає Нобелівський лауреат».

На сайті Times Higher Education опублікована стаття Джека Гроува «ШІ має визнавати наукову невизначеність, вважає Нобелівський лауреат».
У ній автор посилається на позицію лауреата Нобелівської премії з хімії 2004 року Аврама Гершко, який вважає за необхідне розширити функціонал ChatGPT за рахунок додавання коректних посилань на джерела інформації та вказування на рівень невизначеності у згенерованих відповідях. Наразі вчені повинні остерігатися використання штучного інтелекту в дослідженнях, оскільки технологія могла бути навчена з використанням помилкових чи упереджених наборів даних, зазначив він. На науковій конференції у Німеччині Гершко заявив, що його турбує некритичне ставлення науковців до результатів, отриманих за допомогою великих мовних моделей, таких як ChatGPT. «Ми повинні знати, які набори даних він використовує – це має бути прозоро», – сказав професор Гершко з Ізраїльського технологічного інституту Техніо. Майкл Левітт, біолог зі Стенфордського університету, який у 2013 році також отримав Нобелівську премію з хімії, говорить: «Ми очікуємо, що дані будуть постійно помилковими – наука дуже добре відфільтровує ці [погані результати]». Він вважає, що найбільш комерційно успішними моделями ШІ будуть ті, які забезпечать прозорість даних, які вони зчитують, тому що споживачі вважають за краще більше розуміти свої процеси. «Це – одна з причин, через яку прийде прозорість…», робить він свій висновок. Група з оцінювання ймовірного впливу ШІ на дослідження також висловила стурбованість щодо «односторонньої» передачі потоків даних з академічних кіл та наукової літератури у великі мовні моделі, що належать приватним компаніям, які допомагають зробити моделі ШІ більш потужними. Навпаки, промисловість не зробила свої дані відкритими. Аарон Чехановер – партнер професора Гершко, який розділив з ним Нобелівську премію з хімії за спільну роботу з деградації клітин, висловив свої сумніви: «Я хотів би, щоб дані були відкритими, але це буде [неможливо] …адже фармацевтичні компанії та медичні страхові компанії будуть побоюватися, що їхні дані, якщо вони будуть оприлюднені, стануть предметом захоплення з боку їхніх комерційних конкурентів».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Поширити