Думка експерта
Штучний інтелект із позицій феномена «кажана»: гуманітарне есе. Частина 3


Євген Стрельцов, доктор юридичних наук, доктор теології, професор, член-кореспондент НАПр-НУ, заслужений діяч науки і техніки України
V. Про «взаємовідносини» ШІ з правом як часткою гуманітарного знання та нормативним інститутом
Вище я вже стисло згадував про право в загальному огляді ШІ з позицій гуманітарного знання. У зв’язку з тим, що право унормовує соціальне «життя» ШІ та враховуючи мою основну професійну спрямованість, вважаю за доцільне ширше висвітлити тут ці «взаємовідносини». Причому в цьому розділі есе буде проведено аналіз права в більш широкому значенні, яке включає: правову систему, сферу кримінального правосуддя та кримінальне право, а основну увагу буде приділено тим складовим правової системи, які виконують охоронну функції і мають для реалізації своїх «намірів» каральні можливості. Ці особливості також потребують спеціальної уваги, особливо коли до їх реалізації «залучається» ШІ.
Читайте також: Криптовалюти у Польщі та ЄС: особливості регулювання ринку
Виходячи з цього, почну аналіз із «взаємовідносин» ШІ і правової системи, причому такий аналіз стосується декількох предметних напрямків. Один із них передбачає безпосередню «участь» в аналізі діючого законодавства, розробки попередніх проектів судових рішень, відповідних договорів тощо. Водночас потребують уваги й проблеми правого регулювання та «особиста» діяльність ШІ, зокрема пов’язані з розробкою та встановленням норм, які на різних рівнях (теоретичному, законодавчому, практичному) регламентують та регулюють діяльність штучного інтелекту, «дотримуючись» при цьому правил етики і безпеки. Не можна залишити поза увагою й проблеми визначення та встановлення відповідальності за так звані «помилки» (в широкому розумінні) в діяльності ШІ, особливо з урахуванням збитків, завданих його діяльністю. Причому в усіх вказаних напрямках «взаємовідносин» необхідно, незважаючи на «авторитет» штучного інтелекту, дотримуватися існуючих та розробляти нові, (у разі потреби) стандарти щодо захисту людини та персональних даних.
Існують і нові виклики, які торкаються усіх складових загального розуміння права: це питання правосуб’єктності ШІ, відповідальності його розробників та користувачів та, мабуть, найскладніше – питання диференціації при встановленні «особистої» відповідальності. При тому необхідно завжди пам’ятати про основні положення згаданої теорії «кажана», які й тут допоможуть (можуть допомогти) максимально точно «зрозуміти» «реальні наміри» штучного інтелекту, а не ті, які ми собі уявляємо. У будь-якому випадку, між ШІ та правовою системою існують не тільки «взаємовідносини», а певною мірою і «взаємозалежність», бо правова система за допомогою усіх своїх «важелів» регулює діяльність штучного інтелекту, а він, зі свого боку, допомагає (ймовірно допомагає) правовій системі бути ефективнішою, в першу чергу сприяючи більш якісній адаптації її до нових викликів.
Достатньо широкі «взаємовідносини» «склалися» в ШІ зі сферою кримінальної юстиції, де також простежується предметна еволюція (див, детальніше: Ян Берназюк. Штучний інтелект і система правосуддя України). Наприклад, вже на початку досудового слідства це може проявлятися в обробці даних, які дають змогу виявити підозрюваного або відтворити події вчинення правопорушення. В судовому засіданні це стосується систематизації та обробки (аналізу) доказів, розробки проектів судового рішення тощо. Водночас і тут, коли штучний інтелект вже «потрапляє» у сферу кримінальної юстиції у якості «суб’єкта», є, умовно кажучи, «звичні» й «нові» проблеми. Це, наприклад, використання ШІ в якості «інструменту» вчинення кримінального правопорушення, зокрема, «кіберзлочинів». Або, наприклад, у цих «взаємовідносинах» потрібно звертати увагу на ретельність перевірки будь-яких висновків ШІ, особливо коли вони «становлять» основу обвинувального рішення.
Отже, з одного боку, штучний інтелект – це потужний інструмент в системі кримінального правосуддя, з іншого боку, він потребує суворого регулювання своїх «проявів» для мінімізації ризиків щодо застосування кримінальної відповідальності та забезпечення справедливості.
Усі ці положення мають свої прояви й у «взаємовідносинах» штучного інтелекту з кримінальним правом. Причому кримінальне право тут потрібно розглядати не тільки в нормативному вимірі, а й як важливу частину гуманітарного знання, оскільки воно поєднує, поруч з правовими, соціальні, етичні, психологічні та культурологічні аспекти, що спрямовані на забезпечення правопорядку та соціального спокою. Зверну увагу лише на окремі моменти. Наприклад, ШІ «самостійно» (теорія «кажана») чи «хтось» з його допомогою вчиняє кримінальні правопорушення, які посягають на найзначущі соціальні цінності: права і свободи людини, функціонування суспільства, безпеку держави тощо. З одного боку, тут усе «здається» зрозумілим, але, з іншого, виникають суттєві питання. Наприклад, кримінальне право не завжди готове до таких «новітніх» суспільно-небезпечних викликів або небезпека вже «відомих» діянь значно «підвищується» в зв’язку, скажімо, з їх анонімністю та/або масштабністю, наявністю в таких випадках не завжди видимої «межі» між умисними діяннями й технічними помилками в роботі відповідних систем, що до речі, потребує залучення для вирішення цього не тільки кримінально-правових заходів. Розуміння цього дає змогу використовувати штучний інтелект і під час розробки так званих прогностичних моделей суспільно-небезпечних посягань, що може слугувати їх запобіганню на самих первісних етапах протидії.
Читайте також: Майнові права. Чи існують шляхи виділення частки з майна, яка є у спільній частковій власності?
Окремим складним питанням для кримінального права є й так звана кримінальна правосуб’єктність ШІ, тобто як ця обов’язкова умова суб’єкта правовідносин реалізується (може реалізуватися) в кримінальному праві саме «стосовно» ШІ? Тут є дві важливі складові: перша – «безпосередня», друга – «похідна» з цієї загальної проблеми. Отже, перша складова пов’язана з тим, що «сьогодні», як здається, все зрозуміло: ШІ не може бути суб’єктом кримінального права, а відповідальність «за його діяння» несуть розробники, власники чи оператори. А що буде «завтра»? Це непросте питання, бо до змін, які дуже часто відбуваються «крадькома», необхідно бути готовими заздалегідь. Наприклад, ще не так давно вітчизняна догма категорично відкидала «неособисту» відповідальність «нелюдських» суб’єктів, наводячи зрозумілі аргументи, а зараз уже спостерігаються значні зміни, причому аргументів немає, проголошується необхідність «копіювання» досвіду. Тому наразі, з урахуванням положень «теорії кожана», ми «обережно» ставимося до «персоніфікованої» відповідальності штучного інтелекту, а що буде далі?… Можливо, як це зазвичай відбувається, буде визнано, що єдиною «зброєю», яка зможе протистояти «свідомому свавіллю» ШІ, є кримінальне право? Звичайно, не варто забігати наперед, але, водночас, потрібно розуміти, що дана проблема існує, й вона потребує прискіпливої уваги.
Друга складова, «похідна» з першої, але де-факто не менш важлива і яка сьогодні вже починає обговорюватися, пов’язана з тим, що, образно кажучи, в кримінальному праві поволі, але починає просуватися феномен «кажана». Ідея полягає в тому, що для правової оцінки (кваліфікації) кримінального правопорушення буде непотрібно досконально встановлювати внутрішнє ставлення особи до вчиненого ним діяння (суб’єктивна складова). Достатньо лише «бачення» сутності таких «чужих» діянь з боку особи, яка застосовує право, і цього цілком достатньо для всебічної «об’єктивної» оцінки діянь іншої особи. Тобто, умовно кажучи, «вдень зависли головою вниз, а вночі з’їли мух» – і сутність кажана повністю зрозуміла. Але дана позиція має дуже багато суто негативних наслідків, не кажучи вже про те, що така оцінка «чужих» діянь є, принаймні, неповною, з усіма зрозумілими наслідками. Слід враховувати, що такий підхід зробить зовсім непотрібною людську «чуттєву» оцінку діянь іншої людини. Так, ввів перелік отриманих даних у комп’ютерну програму і все – отримуєш так звану кваліфікацію діянь.
Не кажучи про порочність такого підходу в праві, він може набути поширення і в інших галузях. Наприклад, зробить непотрібною «людську» постановку лікарського діагнозу в медицині, зокрема й необхідність консиліуму (спільного обговорення) в складних випадках захворювань. Достатньо ввести результати отриманих аналізів до комп’ютерної програми – і ми «отримуємо» і діагноз, й курс лікування. Але, на мою думку, у всіх подібних випадках це є штучним «спрощенням» складних процесів оцінки людської сутності саме із застосуванням комплексного методу. Крім того, якщо оцінювати це на більш значному рівні, то люди, так би мовити, власними «зусиллями» передають свої основні повноваження комп’ютерним технологіям, що вже й сьогодні викликає певне занепокоєння (Див, наприклад, Штучний інтелект незабаром може замінити людей у 10 сферах). Але коли наступить час, що світом «взагалі» управлятиме ШІ (про технологічну сингулярність згадувалося вище), а люди будуть, у кращому випадку, на других ролях, то слід розуміти, що ми самі в цьому винні, бо створювали всі «передумови» для цього. Є над чим подумати і в плані кримінального права, і на більш значному рівні.
Стислий авторський висновок
Як на мій погляд, сьогодні ми лише починаємо реально вступати у «відносини» зі штучним інтелектом, з усіма передбачуваними та непередбачуваними перспективами, включаючи позитивні та негативні аспекти. І це потрібно сприймати спокійно, бо, по-перше, наші «стосунки» з ШІ будуть лише розвиватися, а, по-друге, потрібно враховувати, що будь-які відносини можуть мати певні особливості в своєму розвитку. Зміст і характер таких відносин напряму стосується й правової сфери. При цьому, людство має враховувати, що від самого початку ми повинні вибудовувати такі відносини за відомим правилом: «з любов’ю, але вимогливо». У будь-якому випадку людство повинно взяти на себе обов’язок виробити (запропонувати) відповідні змістовні й організаційні правила та механізми, які повинні будуть забезпечувати продуктивне співіснування і запобігання ризиком у наших взаємовідносинах з ШІ.
Читайте також: Суддівська етика
Теги: гуманітарні знання, штучній інтелект, теорія «кажана», правова система, сфера кримінальної юстиції, кримінальне право, правосуб’єктність, суб’єкт кримінального правопорушення (злочину), суб’єкт кримінальної відповідальності, IOR
Artificial Intelligence from the Perspective of the “Bat” Phenomenon:
A Humanitarian Essay
Yevgen Streltsov, Prof., Prof. Hon. Dr. of Law, Dr. of Theology
onua.edu.ua/en/streltsov
Abstract
Artificial intelligence (AI) is increasingly entering our lives, and humanity admittedly associates its prospects for successful development with AI. Nonetheless, it is quite obvious that not everyone perceives AI only positively for there are also certain problems with its “introduction” into social life. ¦erefore, the assessment of AI and prospects for its “coexistence” with humanity, are extremely important today. In this essay, an attempt is made to assess AI from the standpoint of the theory of consciousness based on an analysis of the “bat theory”. In any case, today we believe that arti£cial AI lacks subjective experience. In this regard, the question arises: is this true, or is this only our present-day understanding of the capabilities of AI?
Key words: humanities, artificial intelligence, bat theory, legal system, criminal justice, criminal law, legal personality, subject of criminal offense (crime), subject of criminal liability, IOR
P.S. Невже ШІ вже перетнув «червону лінію»?
Коли це есе вже було в редакції ЮВУ, в кінці січня 2025 року світ вразила (навіть шокувала) новина, яка підкреслює не лише інший, а й якісно більш високий рівень сучасного розвитку штучного інтелекту: нова модель ШІ, представлена китайськими розробниками, за своїми основними характеристиками, виступає не стільки конкурентом, скільки взагалі може витиснути з ринку існуючу зараз модель чат-боту ChatGPT, на що одразу відреагував «ринок», знизивши вартість світових технологічних гігантів ( Nvidia, Dell, Nasdaq, Alphabet та ін.), які займаються розробкою чипів, відеокарт й обчислювального обладнання. Основна новина, її, так би мовити, змістовно-принципова значимість, як стверджують китайські фахівці, полягає в тому, що ШІ перетнув критичну «червону лінію» і вже здатний відтворювати себе «самостійно», без участі людини, тобто може клонувати себе!. А це, зі свого боку, потребує ще ретельнішого, можливо, безпосереднього аналізу питання про наявність у ШІ «самостійної» свідомості та можливості використовувати «ним» свій інтелект «особисто». Слід ще раз наголосити, що сьогодні людство в цілому може «лише» спостерігати за тим, як працює штучний інтелект (тобто аналізувати його алгоритми, логіку прийняття рішень тощо), але не може стверджувати про те, що і як відчуває або усвідомлює ШІ в процесі своєї «діяльності». Тому, якщо ми продовжуватимемо використовувати звичні для нас методи осмислювання дій штучного інтелекту саме через призму людського досвіду, то це буде аналогічно спробам представити «суб’єктивний досвід кажана» без реального розуміння «свідомості» цього рукокрила.
Отже, доки в людства не з’явиться, умовно кажучи, почуття «емпатії» до ШІ, що має знайти відображення у «вибудовуванні» наших відносин з «ним», існуватиме фундаментальна прірва між людською свідомістю, людським інтелектом і «такими» якостями штучного інтелекту. Дійсно, це може породити низку значних соціальних, правових, морально-етичних та інших проблем; це дуже важливо не тільки для науки і бізнесу, але й водночас допоможе людству підготуватися до майбутнього, де «машини», як ми сьогодні вважаємо, можуть стати (стануть), щонайменше, чимось значно більшим, аніж просто нашими інструментами.
Джерело: Юридичний вісник України