Думка експерта
Перший позов проти ШІ?
Швидке поширення мовних застосунків на основі штучного інтелекту (ШІ) уже ставить перед юристами нові питання, що потребують негайної відповіді. Так, мер австралійського міста може подати перший у світі позов проти штучного інтелекту за неправдиву інформацію, яку видає користувачам мовний застосунок на основі ШІ ChatGPT. На початку 2000-х років нинішній мер Б. Гуд брав участь у розкритті спроби підкупу іноземцями банківських працівників заради отримання контрактів на друк грошових знаків від Резервного банку Австралії. Однак ChatGPT на запит видає абсолютно протилежну інформацію: «Б. Гуд визнав себе винним у хабарництві та корупції й був засуджений до тюремного ув’язнення». Його адвокати заявили, що надіслали власнику ChatGPT – компанії OpenAI лист, в якому вимагають припинити поширювати неправду, або ж через місяць вони звернуться до суду з позовом про наклеп. Тобто це, ймовірно, буде першим випадком, коли людина позиватиметься проти штучного інтелекту.
Читайте також: Шістдесят тисяч за «неперешкоджання майнінгу»
Цей випадок є одним Із низки недавніх прикладів, коли чат-боти зі штучним інтелектом публікують сфальсифіковану інформацію про реальних людей. Так, американський професор Дж. Терлі був записаний чат-ботом у список викладачів-юристів, обвинувачених у сексуальних домаганнях. ChatGPT видає користувачам інформацію, що професор робив коментарі сексуального характеру й намагався доторкнутися до студентки під час екскурсії на Аляску, посилаючись на статтю в The Washington Post за березень 2018 року як на джерело інформації. Однак такої статті видання ніколи не публікувало, а Дж. Терлі ніколи не їздив зі студентами на Аляску й не отримував звинувачень у сексуальних домаганнях.
Широке використання мовних чат-ботів відкриває нові можливості для поширення дезінформації: моделі на основі ШІ можуть легко спотворювати ключові факти і навіть фабрикувати посилання на фальшиві першоджерела для підтвердження своїх тверджень. Сучасні чат-боти зі штучним інтелектом працюють, спираючись на величезні масиви онлайн-контенту для створення правдоподібних відповідей майже на будь-яке запитання. Хоча їхні відповіді часто звучать авторитетно, моделям бракує надійних механізмів для перевірки своїх тверджень. Користувачі опублікували численні приклади того, як ці інструменти плутаються в основних фактичних питаннях або навіть фабрикують неправду, доповнюючи її реалістичними деталями і фальшивими цитатами. На днях Центр протидії цифровій ненависті (Center for Countering Digital Hate) опублікував звіт, згідно з яким дослідникам вдалося змусити мовний застосунок Bard від Microsoft видати неправдиву інформацію 78 разів зі 100 на різні теми – від Голокосту, війни в Україні до зміни клімату.
Для убезпечення себе від можливих позовів власники систем зі ШІ попереджають користувачів, що застосунок може відображати неточну або образливу інформацію. Однак це мало втішає осіб, про яких мовні застосунки поширюють брехню. Представник Microsoft заявив, що компанія вживає заходів, щоб забезпечити безпеку і точність результатів пошуку. Зокрема, розроблено систему безпеки, що включає фільтрацію контенту, оперативний моніторинг і виявлення зловживань для забезпечення безпечного пошуку.
Дедалі більш популярні застосунки на основі ШІ поки що перебувають поза рамками правового регулювання, а їх схильність генерувати потенційно шкідливу, неправдиву інформацію викликає занепокоєння щодо нового способу поширення дезінформації і ставить питання про те, хто несе за це відповідальність. З юридичної точки зору, абсолютно незрозуміло, як судді можуть прийняти рішення у справі проти творців штучного інтелекту через надану ним неправдиву інформацію.
У США на початку ери бурхливого розвитку інтернету Конгрес прийняв закон, відомий як «параграф 230», який захищає онлайн-сервіси від відповідальності за контент, створений третіми особами, наприклад, коментаторами на веб-сайті або користувачами соціальних додатків. По суті, параграф 230(c)(1) передбачає імунітет від відповідальності для провайдерів і користувачів «інтерактивних комп’ютерних послуг», що публікують інформацію, надану користувачами-третіми особами.
Закон також пропонує захист від цивільної відповідальності для операторів інтерактивних комп’ютерних послуг, які добросовісно видаляють або модерують матеріали третіх осіб, які вони вважають «непристойними, хтивими, розпусними, брудними, надмірно насильницькими, образливими або неприйнятними з інших причин, незалежно від того, чи є такі матеріали захищеними Конституцією, чи ні?».
Читайте також: Інтелектуальна власність завжди в ціні…
Параграф 230 був розроблений у відповідь на кілька судових позовів проти онлайн-платформ на початку 1990-х років, які призвели до різного розуміння ролі провайдерів: як видавців чи як поширювачів контенту, створеного їхніми користувачами. Її автори вважали, що для гарантування розвитку інтернету інтерактивні комп’ютерні послуги повинні розглядатися як дистриб’ютори, які не несуть відповідальності за поширюваний ними контент. Захист, передбачений параграфом 230, вимагає від провайдерів видаляти матеріали, що є незаконними на федеральному рівні, наприклад, у випадках порушення авторських прав.
Однак у випадку ШІ не відомо, чи зможуть технологічні компанії посилатися на цей пункт, якщо на них подадуть до суду за контент, створений їхніми власними чат-ботами. Якщо мовні моделі не отримають захист за параграфом 230 або подібні гарантії, то спроби технологічних компаній модерувати свої мовні моделі та чат-боти можуть бути використані проти них у справі про відповідальність.
Джерело: Юридичний вісник України