На сайті Times Higher Education опублікована стаття Сари Кастер «Потрібні дослідження, щоб відкрити чорну скриньку машинного навчання».
У ній наголошується, що університети повинні вирішувати питання етики та упередженості в ШІ та гарантувати, що студенти будуть «кращі, ніж ChatGPT». Автор спирається на виступ віце-президента й генерального менеджера з питань штучного інтелекту та аналітики компанії Intel доктора Вей Лі. Під час свого нещодавнього виступу на конференції «Digital Universities UK» він звернув увагу на те, що потреба у створенні «етичної основи» машинного навчання є нагальною. Адже наразі машинне навчання – це «чорна скринька»: «Ви отримуєте те, що отримуєте, і насправді не знаєте, чому саме». Наукові дослідження, на переконання одного з керівників Intel, можуть допомогти виявити фундаментальні етичні проблеми штучного інтелекту, серед яких, зокрема, вбудоване упередження. Команда фахівців Intel працює над розробкою технології, яка допоможе створити справедливі та інклюзивні системи ШІ, але промисловість більше зосереджена власне на процесі створення систем ШІ, а не на вирішенні етичних питань, які неодмінно виникатимуть. Незважаючи на нещодавній відкритий лист, підписаний експертами зі штучного інтелекту та керівниками галузі, у якому містився заклик до призупинення розробки штучного інтелекту до того моменту, поки людство «не будемо впевнене, що вплив ШІ буде позитивним, а ризики – керованими», розвиток ШІ не сповільнюється, інвестиції продовжуються, роботи тривають. Вей Лі упевнений, що «вища освіта отримала серйозний виклик і має можливість краще підготувати наступне покоління студентів у новому середовищі ШІ». Університети повинні навчати студентів бути «більше, ніж просто месенджером для ChatGPT».
Фото: скріншот
#НРАТ_Усі_новини #НРАТ_Науковцям_новини #НРАТ_Освітянам_новини #НРАТ_ШтучнийІнтелект
ВІДКРИТИ ЧОРНУ СКРИНЬКУ МАШИННОГО НАВЧАННЯ
2023-05-15
Share