ОЕСР: ОЦІНКА ВПЛИВУ ШІ НА РОБОЧІ МІСЦЯ

ОЕСР: ОЦІНКА ВПЛИВУ ШІ НА РОБОЧІ МІСЦЯ

На сайті Radio France Internationale опубліковане інтерв’ю директора по дослідженням ОЕСР Стефано Скарпетта під заголовком «За даними ОЕСР майже кожне десяте робоче місце може бути замінене штучним інтелектом упродовж десятиліття».

На сайті Radio France Internationale опубліковане інтерв’ю директора по дослідженням ОЕСР Стефано Скарпетта під заголовком «За даними ОЕСР майже кожне десяте робоче місце може бути замінене штучним інтелектом упродовж десятиліття».
Стефано наголошує, що згідно з результатами дослідження ОЕСР очікується, що розвиток штучного інтелекту вплине на 24% робочих місць, а біля 9% можуть взагалі зникнути. Експерти Організації економічного співробітництва та розвитку вважають, що висококваліфіковані працівники ризикують бути заміненими штучним інтелектом. Законодавці ЄС закладають основу для регулювання ризиків, спричинених розвитком технологій ШІ, ґрунтуючись на попередньому опитуванні. Тоді близько 30 % респондентів висловили стурбованість розвитком ШІ, а 19 % були «дуже стурбовані» і вважали, що їхні робочі місця – під загрозою. Але цей прогноз після запуску ChatGPT застарів. Генератор контенту від американської компанії OpenAI, змінює правила гри: «може бути втрачено більше робочих місць, ніж очікувалося, і вплив на сферу праці виявляється більш масштабним, ніж очікувалось». У березні цього року американський банк Goldman Sachs опублікував оцінку, згідно з якою 300 мільйонів робочих місць у всьому світі можуть бути замінені штучним інтелектом у найближчі кілька років. В основному це офісна робота та адміністративні завдання. Провідні технологічні лідери та дослідники закликають до «паузи» у розвитку ШІ. За даними Всесвітнього економічного форуму упродовж наступних п'яти років, ймовірно, буде втрачено 83 млн. робочих місць, але можуть бути створені ще 69 млн. робочих місць із високим попитом у секторі кібербезпеки та нових технологій.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_OECD #НРАТ_ШтучнийІнтелект
2023-08-03
Share
РЕЦЕНЗЕНТИ ЗАЯВОК НА АВСТРАЛІЙСЬКІ ГРАНТИ ВИКОРИСТОВУВАЛИ ЧАТ-БОТИ ЗАМІСТЬ ЗДІЙСНЕННЯ ПРОФЕСІЙНОЇ  ЕКСПЕРТИЗИ

РЕЦЕНЗЕНТИ ЗАЯВОК НА АВСТРАЛІЙСЬКІ ГРАНТИ ВИКОРИСТОВУВАЛИ ЧАТ-БОТИ ЗАМІСТЬ ЗДІЙСНЕННЯ ПРОФЕСІЙНОЇ ЕКСПЕРТИЗИ

На сайті Times Higher Education опублікована стаття Тома Уильямса «Експерти з оцінювання грантів звинувачуються у використанні ChatGPT для написання відгуків».

На сайті Times Higher Education опублікована стаття Тома Уильямса «Експерти з оцінювання грантів звинувачуються у використанні ChatGPT для написання відгуків».
У ній повідомляється про виявлення кандидатами на отримання грантового фінансування в рамках схеми Discovery Projects Австралійської дослідницької ради використання рецензентами чат-ботів зі штучним інтелектом. Рецензенти замість здійснення фахової експертизи передоручали цю роботу чат-ботам, які готували оцінку для офіційних відгуків. «Контрольні» ознаки участі ChatGPT у відгуках на заявки було виявлено згідно з обліковим записом ARC Tracker. Том вважає, що така недоброчесна практика була «повністю передбачуваною» через брак часу у дослідників, і через те, що ARC «нічого не зробив» для запобігання використання чат-ботів ШІ. Така пересторога відсутня і в посібнику по оцінці грантів. Дослідник академічної доброчесності та співдиректор Центру досліджень у галузі оцінювання та цифрового навчання в Університеті Дікіна Філіп Доусон висловився доволі жорстко: «до такої поведінки треба ставитися гірше, ніж просто до недоречного відкликання. Дослідницькі гранти повинні бути конфіденційними, і передача їх … OpenAI є серйозним порушенням інтелектуальної власності». зі свого боку ARC заявив, що «розгляне низку питань щодо використання генеративного штучного інтелекту, які використовують алгоритми для створення нового контенту (наприклад, ChatGPT) і які можуть створювати проблеми з конфіденційністю та безпекою для досліджень й для Адміністрації грантової програми». Рецензенти мають певні зобов'язання щодо забезпечення конфіденційності інформації, отриманої в рамках процесів Національної конкурсної програми грантів, а Австралійський кодекс відповідального проведення досліджень встановлює, що «люди повинні брати участь в експертній оцінці таким чином, щоб це було справедливим, суворим та своєчасним і зберігало конфіденційність змісту».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-02
Share
НАГАЛЬНІ ПИТАННЯ РЕГУЛЮВАННЯ ШІ В ЕКОСИСТЕМІ ВІДКРИТОГО ВИХІДНОГО КОДУ

НАГАЛЬНІ ПИТАННЯ РЕГУЛЮВАННЯ ШІ В ЕКОСИСТЕМІ ВІДКРИТОГО ВИХІДНОГО КОДУ

На сторінці блогу GitHub опублікована стаття Петера Чихона «Як домогтися правильного регулювання ШІ для відкритого вихідного коду».

На сторінці блогу GitHub опублікована стаття Петера Чихона «Як домогтися правильного регулювання ШІ для відкритого вихідного коду».
У ній представлено коаліційний документ з інформацією про остаточне обговорення Закону ЄС про штучний інтелект. Автор наголошує, що зазначений закон має стати першим всеосяжним регламентом у галузі штучного інтелекту та запропонувати модель для політиків у всьому світі. Але є певний ризик того, що цей закон може регулювати проекти з відкритим вихідним кодом, ніби вони були комерційними продуктами або розгорнутими системами ШІ. Це було б несумісно з практикою здійснення розробок із відкритим вихідним кодом та суперечило б потребам окремих розробників і некомерційних дослідницьких організацій. Закон може загальмувати розробки у галузі ШІ з відкритим вихідним кодом і, таким чином, може підірвати його цілі щодо просування відповідальних інновацій відповідно до європейських цінностей. Для пояснення позиції було опубліковано програмний документ «Підтримка відкритого вихідного коду та відкритої науки у Законі про ШІ». Коаліція провідних організацій у галузі відкритої культури та штучного інтелекту – Creative Commons, EleutherAI, Hugging Face, LAION та Open Future – мають намір використати цей документ як ресурс для політиків, які займаються регулюванням штучного інтелекту. У Європейському Союзі та у світі в цілому вкрай важливо забезпечити підтримку екосистему штучного інтелекту з відкритим вихідним кодом.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-02
Share
CHATGPT НА ANDROID СТАВ ДОСТУПНИЙ ПО ВСЬОМУ СВІТУ

CHATGPT НА ANDROID СТАВ ДОСТУПНИЙ ПО ВСЬОМУ СВІТУ

1 серпня 2023 року додаток для роботи з ChatGPT став доступним на пристроях Android.

1 серпня 2023 року додаток для роботи з ChatGPT став доступним на пристроях Android.
Усі, хто підписався заздалегідь, отримали відповідне повідомлення напередодні. Додаток можна завантажити та використовувати у повному обсязі його звичного функціоналу у всіх країнах, що підтримують Google Play. Раніше він був доступний лише у США, Індії, Бангладеш та Бразилії. У додатку для Android користувачі можуть отримати всі функції, що й у веб-версії ChatGPT. Завдяки доступності на пристроях Android чат стає зручним мобільним інструментом для підвищення продуктивності роботи у будь-який час та в будь-якому місці. Дані синхронізуються і на усіх гаджетах представлена повна історія діалогів. Користувачі преміальної передплати отримують ексклюзивний доступ до моделі GPT-4, ранній доступ до нових функцій та короткий час відповіді. Програма дозволяє спілкуватися з потужною нейронною мережею, здатною розуміти та відповідати на запити, роблячи розмови з додатком більш природними та продуктивними. Серед переваг – багатофункціональність: його можна використовувати для створення текстів, генерації ідей, отримання допомоги з освітньою метою тощо. Водночас слід пам'ятати, що чат може давати некоректні відповіді (особливо – при нечітких запитах), вигадувати першоджерела, «галюцинувати», він обмежений у роботі з мережею інтернет. Компанія OpenAI продовжує працювати над покращенням якості системи, аналізуючи результати та використовуючи відгуки користувачів, для чого постійно інвестує у дослідження та розробки.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Share
ШТУЧНИЙ ІНТЕЛЕКТ: МЕДИЧНИЙ ЧАТ-БОТ ВІД GOOGLE

ШТУЧНИЙ ІНТЕЛЕКТ: МЕДИЧНИЙ ЧАТ-БОТ ВІД GOOGLE

На сайті видання про розвиток технологій «The Verge» опубліковано повідомлення про тестування у дослідній американській лікарні медичного чат-боту Google, побудованому на технологіях штучного інтелекту.

На сайті видання про розвиток технологій «The Verge» опубліковано повідомлення про тестування у дослідній американській лікарні медичного чат-боту Google, побудованому на технологіях штучного інтелекту.
Med-PaLM – це велика мовна модель, призначена для надання високоякісних відповідей на медичні запитання, яка використовує LLM від Google, адаптовану до сфери медицини, яка навчалась на основі медичних оглядів, матеріалів медичних досліджень і запитів споживачів. Вона стала першою системою штучного інтелекту, яка перевершила прохідний бал іспиту US Medic License Exam (USMLE). Med-PaLM генерує точні розгорнуті відповіді на запитання щодо здоров’я споживачів, які оцінювались клініцистами та неклініцистами різних професій і країн за критеріями наукової достовірності, точності, медичного консенсусу, належних міркувань, неупередженості, можливої шкоди. Очікується, що у найближчі декілька місяців ця модель буде доступна для клієнтів Google Cloud з метою більш широкого тестування.
Фото: Google
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Share
CHATGPT ПОВИНЕН ПОСИЛАТИСЬ НА ДЖЕРЕЛА ТА ВКАЗУВАТИ НА НЕВИЗНАЧЕНІСТЬ

CHATGPT ПОВИНЕН ПОСИЛАТИСЬ НА ДЖЕРЕЛА ТА ВКАЗУВАТИ НА НЕВИЗНАЧЕНІСТЬ

На сайті Times Higher Education опублікована стаття Джека Гроува «ШІ має визнавати наукову невизначеність, вважає Нобелівський лауреат».

На сайті Times Higher Education опублікована стаття Джека Гроува «ШІ має визнавати наукову невизначеність, вважає Нобелівський лауреат».
У ній автор посилається на позицію лауреата Нобелівської премії з хімії 2004 року Аврама Гершко, який вважає за необхідне розширити функціонал ChatGPT за рахунок додавання коректних посилань на джерела інформації та вказування на рівень невизначеності у згенерованих відповідях. Наразі вчені повинні остерігатися використання штучного інтелекту в дослідженнях, оскільки технологія могла бути навчена з використанням помилкових чи упереджених наборів даних, зазначив він. На науковій конференції у Німеччині Гершко заявив, що його турбує некритичне ставлення науковців до результатів, отриманих за допомогою великих мовних моделей, таких як ChatGPT. «Ми повинні знати, які набори даних він використовує – це має бути прозоро», – сказав професор Гершко з Ізраїльського технологічного інституту Техніо. Майкл Левітт, біолог зі Стенфордського університету, який у 2013 році також отримав Нобелівську премію з хімії, говорить: «Ми очікуємо, що дані будуть постійно помилковими – наука дуже добре відфільтровує ці [погані результати]». Він вважає, що найбільш комерційно успішними моделями ШІ будуть ті, які забезпечать прозорість даних, які вони зчитують, тому що споживачі вважають за краще більше розуміти свої процеси. «Це – одна з причин, через яку прийде прозорість…», робить він свій висновок. Група з оцінювання ймовірного впливу ШІ на дослідження також висловила стурбованість щодо «односторонньої» передачі потоків даних з академічних кіл та наукової літератури у великі мовні моделі, що належать приватним компаніям, які допомагають зробити моделі ШІ більш потужними. Навпаки, промисловість не зробила свої дані відкритими. Аарон Чехановер – партнер професора Гершко, який розділив з ним Нобелівську премію з хімії за спільну роботу з деградації клітин, висловив свої сумніви: «Я хотів би, щоб дані були відкритими, але це буде [неможливо] …адже фармацевтичні компанії та медичні страхові компанії будуть побоюватися, що їхні дані, якщо вони будуть оприлюднені, стануть предметом захоплення з боку їхніх комерційних конкурентів».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Share
ПРАКТИЧНІ ПОРАДИ ІЗ ЗАСТОСУВАННЯ ШІ У ВИЩІЙ ОСВІТІ ТА ДОСЛІДЖЕННЯХ

ПРАКТИЧНІ ПОРАДИ ІЗ ЗАСТОСУВАННЯ ШІ У ВИЩІЙ ОСВІТІ ТА ДОСЛІДЖЕННЯХ

На сайті Times Higher Education опублікована стаття Като Ролеа «Корисні застосування ШІ у вищій освіті, для яких не потрібні спеціальні технічні знання».

На сайті Times Higher Education опублікована стаття Като Ролеа «Корисні застосування ШІ у вищій освіті, для яких не потрібні спеціальні технічні знання».
Швидке поширення штучного інтелекту від моменту його запуску у листопаді 2022 року і до сьогодні змусило користувачів щосили намагатися не відставати. Автор, виходячи з власного досвіду, пропонує напрямки практичного застосування інструментів ШІ у вищій освіті. Наразі у цифровому ландшафті є безліч інноваційних інструментів, кожен з яких обіцяє перевагу у швидкості, функціональності та продуктивності. Багато з них не потрібують від користувача додаткових технічних знань, що спрощує можливості їх використання під час навчання. Найбільш ефективно це можна зробити для швидкого інжинірингу та у галузі мистецтва завдяки MidJourney, – провідному генератору. Задіяння помічника чат-бота завдяки poe.com, який дозволяє будь-кому створити персоналізований чат-бот з використанням движків штучного інтелекту OpenAI або Anthropic. Ще одна можливість використання для досліджень WordTune Read, – служби, яка пропонує повне узагальнення статей або книг обсягом до 300 сторінок із безкоштовною версією до трьох статей на місяць. Цей інструмент може допомогти науковцям та студентам швидше споживати контент. І, нарешті, MeetCody, який дозволяє створити чат-бот для відповідей на запитання лише в рамках встановленої бази знань.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-07-28
Share
CHATGPT – ПІД РОЗСЛІДУВАННЯМ FTC

CHATGPT – ПІД РОЗСЛІДУВАННЯМ FTC

На сайті журналу «The Wall Street Journal» опублікована стаття Джона Д.

На сайті журналу «The Wall Street Journal» опублікована стаття Джона Д.
Маккіннона та Райана Трейсі «ChatGPT підпадає під розслідування Федеральної торгової комісії». У ній йдеться про те, що в США розпочато розслідування, під час якого буде проведена перевірка роботи ChatGPT на наявність ознак руйнування репутації. Від OpenAI вимагатимуть надати звіт про такого роду ризики. У заяві FTC говориться, що при розслідуванні комісії належить з'ясувати, чи опікувалася компанія OpenAI «несумлінними діями, що вводять в оману та несуть ризики заподіяння шкоди споживачам, включаючи репутаційні збитки». Компанія має описати, що саме було зроблено для усунення ризиків генерації заяв про реальних людей, які вводять в оману, принижують гідність або є хибними. Комісія зробила запит компанії щодо методів захисту персональних даних. У заяві FTC згадує інцидент, що стався у 2020 році, коли було розкрито помилку, що дозволяє користувачам бачити дані про чати інших користувачів. Також запит включає інформацію про маркетингові зусилля OpenAI, методи навчання ШІ та обробку особистих даних користувачів. Групу, яка подала скаргу до FTC на компанію, очолює президент Центру штучного інтелекту та цифрової політики. У своїй претензії група назвала діяльність чат-бота «упередженою, яка вводить в оману і становить загрозу конфіденційності та громадській безпеці». Автори скарги вважають, що вона відповідає керівним принципам Федеральної торгової комісії з використання ШІ.
Детальніше: https://is.gd/AIovSw
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-07-28
Share
ВИКОРИСТАННЯ CHATGPT ДЛЯ РОБОТИ З АКАДЕМІЧНИМИ ТЕКСТАМИ

ВИКОРИСТАННЯ CHATGPT ДЛЯ РОБОТИ З АКАДЕМІЧНИМИ ТЕКСТАМИ

На сайті Times Higher Education опублікована стаття Брук Шукс «Не заміна, а покращення: використання ChatGPT для академічного тексту».

На сайті Times Higher Education опублікована стаття Брук Шукс «Не заміна, а покращення: використання ChatGPT для академічного тексту».
У ній наголошується, що як сам по собі генеративний штучний інтелект, так і питання його використання в академічній сфері, стали найбільш обговорюваною у вищій освіті темою. Немає сенсу заперечувати достоїнства ШІ та його зручність у роботі з текстами. Ця технологія дозволяє покращити та прискорити процес письма, якщо застосовувати її конструктивно, позитивно й відповідально. Академічний текст, написаний автором, що не має достатнього досвіду, може бути напруженим і заплутаним, особливо це проявляється у юриспруденції, медицині, безпеці та економіці. На адаптацію до різних стилів, зміну структури та урахування вимог видавця зазвичай витрачається багато часу. А із ChatGPT цей процес можна прискорити й одночасно покращати результати. У своїй роботі Брук використала декілька стратегій для удосконалення академічних статей. Вона радить ставити короткі запитання, визначати основні моменти й робити на них акцент, звертатись до ШІ за допомогою у структуруванні матеріалу, переписувати зі ШІ текст для більш чіткого вираження ідей, формувати ключові слова, перевіряти граматику. Разом із тим, не можна покладатися на ChatGPT при створенні списку посилань. Автор нагадує, що усі результати роботи із застосуванням ШІ потрібно ретельно перевіряти та прагнути отримувати конструктивний зворотний зв'язок від колег.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-07-27
Share
УПРАВЛІННЯ ШТУЧНИМ ІНТЕЛЕКТОМ

УПРАВЛІННЯ ШТУЧНИМ ІНТЕЛЕКТОМ

У блозі OpenAI опубліковано повідомлення «Просування управління ШІ».

У блозі OpenAI опубліковано повідомлення «Просування управління ШІ».
У ньому міститься інформація, що OpenAI та інші провідні компанії – Amazon, Anthropic, Google, Inflection, Meta, Microsoft, – беруть на себе добровільні зобов’язання із посилення безпеки, захисту та надійності технологій штучного інтелекту. Таких зобов'язань вісім і вони стосуються питань безпеки та довіри. Зокрема, проголошено прихильність до внутрішнього та зовнішнього об'єднання моделей або систем для запобігання неправомірного використання, соціальних ризиків та проблем національної безпеки, таких як біологічна, кібербезпека та інші галузі безпеки. Компанії працюватимуть над обміном інформацією про ризики довіри та безпеки, спроби обійти заходи безпеки. Вони інвестуватимуть у кібербезпеку та захист від інсайдерських загроз, щоб захистити пропрієтарні та невипущені моделі. Ними всіляко підтримуватиметься мотивоване стороннє виявлення та повідомлення про проблеми і вразливості. Планується розробити й упровадити механізми, що дозволять користувачам зрозуміти, чи створено аудіо- або візуальний контент за допомогою ШІ, включаючи застосування водяних знаків. Громадськість буде поінформована про можливості моделей або систем, обмеження та області належного чи неналежного використання, включно із обговоренням соціальних ризиків, таких як вплив на справедливість та упередженість. Пріоритетна увага буде приділена дослідженням соціальних ризиків, пов'язаних із системами ШІ, у тому числі щодо запобігання шкідливим упередженням, дискримінації та захисту конфіденційності. Планується розробляти і впроваджувати передові системи штучного інтелекту, щоб допомогти у вирішенні нагальних проблем.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-07-27
Share