ЯК ШТУЧНИЙ ІНТЕЛЕКТ ЗМІНЮЄ IP-СФЕРУ

ЯК ШТУЧНИЙ ІНТЕЛЕКТ ЗМІНЮЄ IP-СФЕРУ

Патентне відомство Австралії оприлюднило звіт «Генеративний ШІ та система IP: вивчення можливого майбутнього у контексті прав ІВ».

Патентне відомство Австралії оприлюднило звіт «Генеративний ШІ та система IP: вивчення можливого майбутнього у контексті прав ІВ».
У ньому наголошується, що інтелектуальна власність є важливим економічним активом. У нестабільному та різноманітному світі IP- відомство створює доступну, збалансовану та ефективну систему ІВ, контролює функції товарного знаку, патенту, прав на дизайн та прав селекціонерів. Раптова поява генеративного штучного інтелекту із його здатності продукувати новий контент, порушує питання про те, чи залишається вірним традиційне розуміння інтелектуальної власності. Щоб відповісти на ці та інші питання, венчурна група IP Australia розробила серію сценаріїв впливу ШІ на окремі права ІВ та систему ІВ загалом, а також суспільство. Дослідження покладається на думку експертів та результати опитування зацікавлених сторін (клієнти, науковці, компанії). Дослідники дійшли висновку, що застосування ГШІ зменшує бар’єр для входу до сфери інновацій. Це, скоріше всього, матиме вплив на функціонування системи ІВ та управління нею, призведе до появи більшої кількості інноваційного контенту, більш легкого доступу до створення інновацій, більшої кількості учасників. Важлива парадигма, яка потребуватиме відповідного законодавчого регулювання та адаптації вже існуючих норм, полягає у тому, що застосування ГШІ зробило неможливим покладання на припущення за замовчуванням, що новий контент (включаючи ідеї та винаходи) є виключно результатом зусиль людини. У звіті визначені аспекти використання ШІ, які турбують найбільше: штучний інтелект зловживатиме, використовуючи для генерації контенту чужу інтелектуальну власність; інструменти ГШІ нададуть іншим стейкхолдерам несправедливу перевагу на ринку. Разом із тим експерти погодились, що разом з тим ШІ заохочує інновації, а його роль та можливості потребують подальшого ретельного дослідження і належного регулювання.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_Інноваторам_новини
2023-08-04
Поширити
АКАДЕМІЧНЕ ПИСЬМО В ЕПОХУ ШІ

АКАДЕМІЧНЕ ПИСЬМО В ЕПОХУ ШІ

На сайті Times Higher Education опублікована стаття Эндрю Мура «Чи є сенс викладати академічне письмо в епоху ШІ?».

На сайті Times Higher Education опублікована стаття Эндрю Мура «Чи є сенс викладати академічне письмо в епоху ШІ?».
Автор задається питанням, якщо есе, написані нормальним стилем можуть бути створені за лічені секунди завдяки застосуванню технологій штучного інтелекту, чи потрібно викладачам звертати увагу на стиль при оцінюванні роботи студента? Відповідь, яку він пропонує, традиційна: здобувачі освіти та випускники університетів повинні вміти гарно писати, чітко викладаючи свої думки. Академічне письмо є важливою навичкою для академічного та професійного життя, тому в різних дисциплінах основою навчання студентів є підготовка есе, звітів, дослідницьких робіт та оглядів літератури. Молоді люди мають розвивати своє володіння мовою, розуміння структури та форми. Однак у епоху ШІ саме поняття «писати» змінюється. У недалекому майбутньому студент, який отримав письмове завдання, з більшою ймовірністю почав би збирати свої розрізнені думки та недопрацьовані ідеї, надиктовувати їх на диктофон й використовувати спеціальні додатки для перетворення мови на текст. Наразі він може передати ці нотатки ChatGPT і попросити перетворити їх на зв’язне есе. Так у нього з’явиться чернетка, яку він має ретельно відредагувати. Але найскоріше за все він просто зробить кілька швидких змін на своєму телефоні перед відправкою викладачу для оцінювання результата. Однак, незважаючи на те, що такого роду зміни є неминучими, не можна ставитися до них байдуже. Вони висувають до нас нові вимоги, потребують нової політики. Якщо текст, сформований ШІ стане новою нормою, викладачам доведеться переглянути мету та практику навчання академічному письму. Якщо письмові завдання стануть ненадійними інструментами оцінювання, потрібно буде трансформувати багато елементів та підходів у системі вищої освіти, зробивши акцент на оригінальності ідей.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-03
Поширити
ОЕСР: ОЦІНКА ВПЛИВУ ШІ НА РОБОЧІ МІСЦЯ

ОЕСР: ОЦІНКА ВПЛИВУ ШІ НА РОБОЧІ МІСЦЯ

На сайті Radio France Internationale опубліковане інтерв’ю директора по дослідженням ОЕСР Стефано Скарпетта під заголовком «За даними ОЕСР майже кожне десяте робоче місце може бути замінене штучним інтелектом упродовж десятиліття».

На сайті Radio France Internationale опубліковане інтерв’ю директора по дослідженням ОЕСР Стефано Скарпетта під заголовком «За даними ОЕСР майже кожне десяте робоче місце може бути замінене штучним інтелектом упродовж десятиліття».
Стефано наголошує, що згідно з результатами дослідження ОЕСР очікується, що розвиток штучного інтелекту вплине на 24% робочих місць, а біля 9% можуть взагалі зникнути. Експерти Організації економічного співробітництва та розвитку вважають, що висококваліфіковані працівники ризикують бути заміненими штучним інтелектом. Законодавці ЄС закладають основу для регулювання ризиків, спричинених розвитком технологій ШІ, ґрунтуючись на попередньому опитуванні. Тоді близько 30 % респондентів висловили стурбованість розвитком ШІ, а 19 % були «дуже стурбовані» і вважали, що їхні робочі місця – під загрозою. Але цей прогноз після запуску ChatGPT застарів. Генератор контенту від американської компанії OpenAI, змінює правила гри: «може бути втрачено більше робочих місць, ніж очікувалося, і вплив на сферу праці виявляється більш масштабним, ніж очікувалось». У березні цього року американський банк Goldman Sachs опублікував оцінку, згідно з якою 300 мільйонів робочих місць у всьому світі можуть бути замінені штучним інтелектом у найближчі кілька років. В основному це офісна робота та адміністративні завдання. Провідні технологічні лідери та дослідники закликають до «паузи» у розвитку ШІ. За даними Всесвітнього економічного форуму упродовж наступних п'яти років, ймовірно, буде втрачено 83 млн. робочих місць, але можуть бути створені ще 69 млн. робочих місць із високим попитом у секторі кібербезпеки та нових технологій.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_OECD #НРАТ_ШтучнийІнтелект
2023-08-03
Поширити
РЕЦЕНЗЕНТИ ЗАЯВОК НА АВСТРАЛІЙСЬКІ ГРАНТИ ВИКОРИСТОВУВАЛИ ЧАТ-БОТИ ЗАМІСТЬ ЗДІЙСНЕННЯ ПРОФЕСІЙНОЇ  ЕКСПЕРТИЗИ

РЕЦЕНЗЕНТИ ЗАЯВОК НА АВСТРАЛІЙСЬКІ ГРАНТИ ВИКОРИСТОВУВАЛИ ЧАТ-БОТИ ЗАМІСТЬ ЗДІЙСНЕННЯ ПРОФЕСІЙНОЇ ЕКСПЕРТИЗИ

На сайті Times Higher Education опублікована стаття Тома Уильямса «Експерти з оцінювання грантів звинувачуються у використанні ChatGPT для написання відгуків».

На сайті Times Higher Education опублікована стаття Тома Уильямса «Експерти з оцінювання грантів звинувачуються у використанні ChatGPT для написання відгуків».
У ній повідомляється про виявлення кандидатами на отримання грантового фінансування в рамках схеми Discovery Projects Австралійської дослідницької ради використання рецензентами чат-ботів зі штучним інтелектом. Рецензенти замість здійснення фахової експертизи передоручали цю роботу чат-ботам, які готували оцінку для офіційних відгуків. «Контрольні» ознаки участі ChatGPT у відгуках на заявки було виявлено згідно з обліковим записом ARC Tracker. Том вважає, що така недоброчесна практика була «повністю передбачуваною» через брак часу у дослідників, і через те, що ARC «нічого не зробив» для запобігання використання чат-ботів ШІ. Така пересторога відсутня і в посібнику по оцінці грантів. Дослідник академічної доброчесності та співдиректор Центру досліджень у галузі оцінювання та цифрового навчання в Університеті Дікіна Філіп Доусон висловився доволі жорстко: «до такої поведінки треба ставитися гірше, ніж просто до недоречного відкликання. Дослідницькі гранти повинні бути конфіденційними, і передача їх … OpenAI є серйозним порушенням інтелектуальної власності». зі свого боку ARC заявив, що «розгляне низку питань щодо використання генеративного штучного інтелекту, які використовують алгоритми для створення нового контенту (наприклад, ChatGPT) і які можуть створювати проблеми з конфіденційністю та безпекою для досліджень й для Адміністрації грантової програми». Рецензенти мають певні зобов'язання щодо забезпечення конфіденційності інформації, отриманої в рамках процесів Національної конкурсної програми грантів, а Австралійський кодекс відповідального проведення досліджень встановлює, що «люди повинні брати участь в експертній оцінці таким чином, щоб це було справедливим, суворим та своєчасним і зберігало конфіденційність змісту».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-02
Поширити
НАГАЛЬНІ ПИТАННЯ РЕГУЛЮВАННЯ ШІ В ЕКОСИСТЕМІ ВІДКРИТОГО ВИХІДНОГО КОДУ

НАГАЛЬНІ ПИТАННЯ РЕГУЛЮВАННЯ ШІ В ЕКОСИСТЕМІ ВІДКРИТОГО ВИХІДНОГО КОДУ

На сторінці блогу GitHub опублікована стаття Петера Чихона «Як домогтися правильного регулювання ШІ для відкритого вихідного коду».

На сторінці блогу GitHub опублікована стаття Петера Чихона «Як домогтися правильного регулювання ШІ для відкритого вихідного коду».
У ній представлено коаліційний документ з інформацією про остаточне обговорення Закону ЄС про штучний інтелект. Автор наголошує, що зазначений закон має стати першим всеосяжним регламентом у галузі штучного інтелекту та запропонувати модель для політиків у всьому світі. Але є певний ризик того, що цей закон може регулювати проекти з відкритим вихідним кодом, ніби вони були комерційними продуктами або розгорнутими системами ШІ. Це було б несумісно з практикою здійснення розробок із відкритим вихідним кодом та суперечило б потребам окремих розробників і некомерційних дослідницьких організацій. Закон може загальмувати розробки у галузі ШІ з відкритим вихідним кодом і, таким чином, може підірвати його цілі щодо просування відповідальних інновацій відповідно до європейських цінностей. Для пояснення позиції було опубліковано програмний документ «Підтримка відкритого вихідного коду та відкритої науки у Законі про ШІ». Коаліція провідних організацій у галузі відкритої культури та штучного інтелекту – Creative Commons, EleutherAI, Hugging Face, LAION та Open Future – мають намір використати цей документ як ресурс для політиків, які займаються регулюванням штучного інтелекту. У Європейському Союзі та у світі в цілому вкрай важливо забезпечити підтримку екосистему штучного інтелекту з відкритим вихідним кодом.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-02
Поширити
CHATGPT НА ANDROID СТАВ ДОСТУПНИЙ ПО ВСЬОМУ СВІТУ

CHATGPT НА ANDROID СТАВ ДОСТУПНИЙ ПО ВСЬОМУ СВІТУ

1 серпня 2023 року додаток для роботи з ChatGPT став доступним на пристроях Android.

1 серпня 2023 року додаток для роботи з ChatGPT став доступним на пристроях Android.
Усі, хто підписався заздалегідь, отримали відповідне повідомлення напередодні. Додаток можна завантажити та використовувати у повному обсязі його звичного функціоналу у всіх країнах, що підтримують Google Play. Раніше він був доступний лише у США, Індії, Бангладеш та Бразилії. У додатку для Android користувачі можуть отримати всі функції, що й у веб-версії ChatGPT. Завдяки доступності на пристроях Android чат стає зручним мобільним інструментом для підвищення продуктивності роботи у будь-який час та в будь-якому місці. Дані синхронізуються і на усіх гаджетах представлена повна історія діалогів. Користувачі преміальної передплати отримують ексклюзивний доступ до моделі GPT-4, ранній доступ до нових функцій та короткий час відповіді. Програма дозволяє спілкуватися з потужною нейронною мережею, здатною розуміти та відповідати на запити, роблячи розмови з додатком більш природними та продуктивними. Серед переваг – багатофункціональність: його можна використовувати для створення текстів, генерації ідей, отримання допомоги з освітньою метою тощо. Водночас слід пам'ятати, що чат може давати некоректні відповіді (особливо – при нечітких запитах), вигадувати першоджерела, «галюцинувати», він обмежений у роботі з мережею інтернет. Компанія OpenAI продовжує працювати над покращенням якості системи, аналізуючи результати та використовуючи відгуки користувачів, для чого постійно інвестує у дослідження та розробки.
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Поширити
ШТУЧНИЙ ІНТЕЛЕКТ: МЕДИЧНИЙ ЧАТ-БОТ ВІД GOOGLE

ШТУЧНИЙ ІНТЕЛЕКТ: МЕДИЧНИЙ ЧАТ-БОТ ВІД GOOGLE

На сайті видання про розвиток технологій «The Verge» опубліковано повідомлення про тестування у дослідній американській лікарні медичного чат-боту Google, побудованому на технологіях штучного інтелекту.

На сайті видання про розвиток технологій «The Verge» опубліковано повідомлення про тестування у дослідній американській лікарні медичного чат-боту Google, побудованому на технологіях штучного інтелекту.
Med-PaLM – це велика мовна модель, призначена для надання високоякісних відповідей на медичні запитання, яка використовує LLM від Google, адаптовану до сфери медицини, яка навчалась на основі медичних оглядів, матеріалів медичних досліджень і запитів споживачів. Вона стала першою системою штучного інтелекту, яка перевершила прохідний бал іспиту US Medic License Exam (USMLE). Med-PaLM генерує точні розгорнуті відповіді на запитання щодо здоров’я споживачів, які оцінювались клініцистами та неклініцистами різних професій і країн за критеріями наукової достовірності, точності, медичного консенсусу, належних міркувань, неупередженості, можливої шкоди. Очікується, що у найближчі декілька місяців ця модель буде доступна для клієнтів Google Cloud з метою більш широкого тестування.
Фото: Google
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Поширити
CHATGPT ПОВИНЕН ПОСИЛАТИСЬ НА ДЖЕРЕЛА ТА ВКАЗУВАТИ НА НЕВИЗНАЧЕНІСТЬ

CHATGPT ПОВИНЕН ПОСИЛАТИСЬ НА ДЖЕРЕЛА ТА ВКАЗУВАТИ НА НЕВИЗНАЧЕНІСТЬ

На сайті Times Higher Education опублікована стаття Джека Гроува «ШІ має визнавати наукову невизначеність, вважає Нобелівський лауреат».

На сайті Times Higher Education опублікована стаття Джека Гроува «ШІ має визнавати наукову невизначеність, вважає Нобелівський лауреат».
У ній автор посилається на позицію лауреата Нобелівської премії з хімії 2004 року Аврама Гершко, який вважає за необхідне розширити функціонал ChatGPT за рахунок додавання коректних посилань на джерела інформації та вказування на рівень невизначеності у згенерованих відповідях. Наразі вчені повинні остерігатися використання штучного інтелекту в дослідженнях, оскільки технологія могла бути навчена з використанням помилкових чи упереджених наборів даних, зазначив він. На науковій конференції у Німеччині Гершко заявив, що його турбує некритичне ставлення науковців до результатів, отриманих за допомогою великих мовних моделей, таких як ChatGPT. «Ми повинні знати, які набори даних він використовує – це має бути прозоро», – сказав професор Гершко з Ізраїльського технологічного інституту Техніо. Майкл Левітт, біолог зі Стенфордського університету, який у 2013 році також отримав Нобелівську премію з хімії, говорить: «Ми очікуємо, що дані будуть постійно помилковими – наука дуже добре відфільтровує ці [погані результати]». Він вважає, що найбільш комерційно успішними моделями ШІ будуть ті, які забезпечать прозорість даних, які вони зчитують, тому що споживачі вважають за краще більше розуміти свої процеси. «Це – одна з причин, через яку прийде прозорість…», робить він свій висновок. Група з оцінювання ймовірного впливу ШІ на дослідження також висловила стурбованість щодо «односторонньої» передачі потоків даних з академічних кіл та наукової літератури у великі мовні моделі, що належать приватним компаніям, які допомагають зробити моделі ШІ більш потужними. Навпаки, промисловість не зробила свої дані відкритими. Аарон Чехановер – партнер професора Гершко, який розділив з ним Нобелівську премію з хімії за спільну роботу з деградації клітин, висловив свої сумніви: «Я хотів би, щоб дані були відкритими, але це буде [неможливо] …адже фармацевтичні компанії та медичні страхові компанії будуть побоюватися, що їхні дані, якщо вони будуть оприлюднені, стануть предметом захоплення з боку їхніх комерційних конкурентів».
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-08-01
Поширити
ПРАКТИЧНІ ПОРАДИ ІЗ ЗАСТОСУВАННЯ ШІ У ВИЩІЙ ОСВІТІ ТА ДОСЛІДЖЕННЯХ

ПРАКТИЧНІ ПОРАДИ ІЗ ЗАСТОСУВАННЯ ШІ У ВИЩІЙ ОСВІТІ ТА ДОСЛІДЖЕННЯХ

На сайті Times Higher Education опублікована стаття Като Ролеа «Корисні застосування ШІ у вищій освіті, для яких не потрібні спеціальні технічні знання».

На сайті Times Higher Education опублікована стаття Като Ролеа «Корисні застосування ШІ у вищій освіті, для яких не потрібні спеціальні технічні знання».
Швидке поширення штучного інтелекту від моменту його запуску у листопаді 2022 року і до сьогодні змусило користувачів щосили намагатися не відставати. Автор, виходячи з власного досвіду, пропонує напрямки практичного застосування інструментів ШІ у вищій освіті. Наразі у цифровому ландшафті є безліч інноваційних інструментів, кожен з яких обіцяє перевагу у швидкості, функціональності та продуктивності. Багато з них не потрібують від користувача додаткових технічних знань, що спрощує можливості їх використання під час навчання. Найбільш ефективно це можна зробити для швидкого інжинірингу та у галузі мистецтва завдяки MidJourney, – провідному генератору. Задіяння помічника чат-бота завдяки poe.com, який дозволяє будь-кому створити персоналізований чат-бот з використанням движків штучного інтелекту OpenAI або Anthropic. Ще одна можливість використання для досліджень WordTune Read, – служби, яка пропонує повне узагальнення статей або книг обсягом до 300 сторінок із безкоштовною версією до трьох статей на місяць. Цей інструмент може допомогти науковцям та студентам швидше споживати контент. І, нарешті, MeetCody, який дозволяє створити чат-бот для відповідей на запитання лише в рамках встановленої бази знань.
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-07-28
Поширити
CHATGPT – ПІД РОЗСЛІДУВАННЯМ FTC

CHATGPT – ПІД РОЗСЛІДУВАННЯМ FTC

На сайті журналу «The Wall Street Journal» опублікована стаття Джона Д.

На сайті журналу «The Wall Street Journal» опублікована стаття Джона Д.
Маккіннона та Райана Трейсі «ChatGPT підпадає під розслідування Федеральної торгової комісії». У ній йдеться про те, що в США розпочато розслідування, під час якого буде проведена перевірка роботи ChatGPT на наявність ознак руйнування репутації. Від OpenAI вимагатимуть надати звіт про такого роду ризики. У заяві FTC говориться, що при розслідуванні комісії належить з'ясувати, чи опікувалася компанія OpenAI «несумлінними діями, що вводять в оману та несуть ризики заподіяння шкоди споживачам, включаючи репутаційні збитки». Компанія має описати, що саме було зроблено для усунення ризиків генерації заяв про реальних людей, які вводять в оману, принижують гідність або є хибними. Комісія зробила запит компанії щодо методів захисту персональних даних. У заяві FTC згадує інцидент, що стався у 2020 році, коли було розкрито помилку, що дозволяє користувачам бачити дані про чати інших користувачів. Також запит включає інформацію про маркетингові зусилля OpenAI, методи навчання ШІ та обробку особистих даних користувачів. Групу, яка подала скаргу до FTC на компанію, очолює президент Центру штучного інтелекту та цифрової політики. У своїй претензії група назвала діяльність чат-бота «упередженою, яка вводить в оману і становить загрозу конфіденційності та громадській безпеці». Автори скарги вважають, що вона відповідає керівним принципам Федеральної торгової комісії з використання ШІ.
Детальніше: https://is.gd/AIovSw
Фото: pixabay.com
#НРАТ_Усі_новини #НРАТ_ШтучнийІнтелект #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини
2023-07-28
Поширити