Про штучний інтелект та юридичний дискурс

Місто левів та левиць форуму гостей вітає,

Хаос злочинів, дурниць істиною виправляєм.

Природний інтелект поведе за собою штучний,

Феміда отримає новий меч – дворучний.

Карчевський М.В., ChatGpt про Львівський форум кримінальної юстиції (2023)
27.10.2023 Львівський форум кримінальної юстиції

26.11.2023 Карчевський М.В.

За останні двадцять років штучний інтелект пройшов шлях від наукової абстракції та концептуальних моделей до практичних задач та повсякденного використання. Системи штучного інтелекту використовуються практично в усіх сферах діяльності людини. Відбулися зміни у науковій рефлексії та правовому регулюванні соціалізації штучного інтелекту.

Збройна агресія рф прискорила практичне впровадження технологій штучного інтелекту в роботу національних правоохоронних органів. Розслідування воєнних злочинів, діяльності колаборантів, пропаганди на користь агресора вимагають оперативного опрацювання значних масивів даних. Правоохоронці активно використовують системи розпізнавання обличчя, відеоаналітику, транскрибування відео та аудіозаписів. Водночас, використання штучного інтелекту правоохоронними органами без належного правового регулювання та комплексу організаційно-технічних заходів для дотримання нормативних приписів може привести до системних порушень прав людини, та, як наслідок, ускладнити євроінтеграційні процеси, діалог із міжнародними партнерами України. Тому актуальним є аналіз соціалізації технологій штучного інтелекту та дослідження тенденцій правового регулювання використання відповідних систем правоохоронними органами.

Наукова дискусія щодо правового регулювання технологій штучного інтелекту є багаторівневою. Будемо говорити про стратегічний та тактичний рівні. На першому здійснюється усвідомлення глобальних проблем та перспектив, на другому отримують розв’язання практичні питання, пов’язані з використанням технологій штучного інтелекту.

Стратегічний рівень. Найбільш радикальним негативним прогнозом перспектив людства в контексті розвитку комп’ютерів є концепція технологічної сингулярності. Її автор, В. Віндж, уважає, що після появи інтелекту, який перевершить людський, швидкість прогресу стане надвеликою. Людство опиниться в «режимі, який відрізняється від нашого минулого не менш радикально, ніж ми, люди, самі відрізняємося від нижчих звірів. Така подія анулює через непотрібність всі людські закони, можливо, в одну мить. Некерована ланцюгова реакція почне розвиватися за експонентою без будь-якої надії на відновлення контролю за ситуацією» [1]. На думку В. Вінджа, до цього приведуть або технології штучного інтелекту (artificial intelligence, AI), або технології підсилення інтелекту людини (intelligence amplification, IA).

Сучасний рівень розвитку робототехніки актуалізує проблематику безпечної соціалізації технологій, але штучний інтелект – не єдина гіпотеза. У науці також широко представлена проблема трансгуманізму, розвитку здібностей людини за рахунок технологічних змін у її організмі. Трансгуманізм розглядається як «інтелектуальний та культурний рух, який відстоює можливість і бажаність принципового поліпшення стану людини через застосування, розвиток та надання широкого доступу до технологій ліквідації старіння, посилення людських інтелектуальних, фізичних і психологічних можливостей». Крім цього, трансгуманізм може розглядатися як «вивчення наслідків, потенційних переваг та небезпек технологій, які дають змогу подолати основні людські обмеження, а також пов’язане вивчення етичних питань, обумовлених розробкою та використанням таких технології» [3].

Попри аргументи про невідворотність поганого сценарію, людство має можливість зберегти контроль над ситуацією. Важливе значення для цього має ефективне правове регулювання. На нашу думку, перспективні завдання правового регулювання зумовлені як гіпотезою розвитку штучного інтелекту, так і гіпотезою розвитку технологій трансгуманізму, можуть бути сформульовані наступним чином:

1. Розвиток технологій неможливо заборонити. Попри ризик небезпек абсолютна заборона розробки систем штучного інтелекту чи трансгуманістичних технологій є неможливою. Правове регулювання у цій сфері має забезпечувати стимулювання соціально ефективного використання технологій та мінімізацію ризиків зловживання технологією.

2. Правове регулювання має забезпечити максимальну диверсифікацію технологічних рішень та бути технологічно нейтральним. Технологія має не обмежуватися, а навпаки стати якомога різноманітнішою. Якщо право буде містити умови/вимоги для створення якомога більшої кількості різноманітних рішень у сфері технологій, ризик «глобальної відмови» буде мінімізований. Наприклад, відомий негативний сценарій «епідемії» імплантатів (заподіяння шкоди людству через порушення роботи всіх імплантованих пристроїв) буде просто неможливими, через гарантовану наявність альтернативних технічних рішень. Водночас, швидкість розвитку технологій вимагає відмовлятися від законодавчих формулювань, що вказують на певні види технологій. Будь який закон, пов’язаний із конкретною технологією матиме дуже обмежений час корисного існування

3. Актуальною та затребуваною для сучасного рівня технологій є класична схема «розробник-власник-користувач». Ускладнення технологій вимагатиме переходу до нової, більш складної, схеми правового регулювання. Певно, що правове регулювання соціалізації штучного інтелекту пройде шлях від розгляду робота як об’єкта відносин до наділення його правами, обов’язками та відповідальністю. Потребуватиме розв’язання проблема правового статусу фізичної особи, здатності якої підсилені за допомогою технологій трансгуманізму.

4. На додаток до традиційної юстиції, буде формуватися дві нових сфери, умовно назвемо їх «змішана юстиція» та «юстиція штучного інтелекту». Їх функціонування буде забезпечувати протидію роботам, що є загрозою для соціального розвитку та стабільності. Юстиція штучного інтелекту буде створена на основі роботів. Така система передбачатиме узагальнення в чіткі алгоритми досвіду, отриманого за час існування традиційної юстиції.

5. Оскільки контроль за розвитком та використанням певних технологій вимагатиме ефективної системи моніторингу, аналіз юридично значимої інформації стане набагато складнішим та вимагатиме принципово нових професійних компетенцій. Традиційний розподіл завдань між юристами та спеціалістами стане вкрай неефективним. Буде спостерігатися конвергенція юридичних та технічних наук. Потребуватиме розв’язання питання визначення та розвитку нових видів юридичних професій. При цьому формулювання нових законодавчих положень мають бути технологічно нейтральними, це необхідно для забезпечення стабільності правового регулювання в умовах швидкоплинних змін технологічної реальності.

6. Значення глобальної проблеми набуває питання правових гарантій ефективного розвитку інформаційного навколишнього середовища. Величезні обсяги інформації, яка накопичується людством в процесі життєдіяльності, очевидно потребуватимуть нових правових механізмів. Існуючі зараз право власності на інформацію та право інтелектуальної власності скоріше за все будуть доповнені новими інститутами, що нагадуватимуть право використання надр та право археологічної діяльності. Комплекс означених питань слід розглядати як встановлення координатної системи для майбутньої правової оцінки як штучного інтелекту так і технологічно вдосконалених людей, оскільки саме в цій сфері відбуватиметься переважна частина їх соціально значимої активності.

Означені питання, характеризують, як ми зазначили, стратегічний рівень наукової дискусії та переважно стосуються гіпотетичних технологій, тих, які поки що не існують. Хоча у науці все помітнішою стає скептична думка щодо реальності повноцінного автономного штучного інтелекту. Наприклад, Девід Мінделл на підставі емпіричного дослідження з питань застосування сучасних роботів формулює три «міфи» як хибні уявлення про перспективи робототехніки. Перший міф – про лінійний прогрес,  тобто припущення про те, що техніка пройде шлях від безпосереднього керування людиною до цілком автономних роботів. Другий міф – про заміщення, тобто ідея про те, що машини поступово будуть виконувати всі людські завдання. Третій міф –  про повну автономність, себто «утопічна ідея про те, що сьогодні або в майбутньому роботи зможуть діяти повністю самостійно»[24].

Тактичний рівень стосується технологій, які вже використовуються та набули певного поширення. Достатньо поширеним є поділ технологій «сильний» та «слабкий» штучний інтелект. Сильний являє собою гіпотетичний пристрій, який має здатність мислити, усвідомлювати оточуючий світ та себе як особистість, виконувати всі завдання, як і людина, або навіть перевищувати її інтелектуальні здібності. Слабкий штучний інтелект – фактично існуючі технології, орієнтовані на автоматизацію певних видів діяльності людини або кількох завдань, які виконує людина. Наприклад, керування транспортним засобом, гра в шахи, розпізнавання обличчя, голосу, рукописного тексту тощо.

Експерти визначають чотири загальні групи ризиків [7] використання таких технологій. Проблеми їх мінімізації переважно складають зміст тактичного рівня наукової дискусії щодо соціалізації технологій штучного інтелекту.

Нова якість порушення таємниці приватного життя. Автоматизована обробка даних про людину створює новий рівень загроз для людини. Аналіз  уподобань у соціальних мережах[4], історії покупок[5], інтернет з’єднань[12] з використанням технологій штучного інтелекту здатен більш ніж істотно порушити таємницю приватного життя конкретної людини.

Маніпулювання поведінкою. Технології «слабкого» штучного інтелекту вже сьогодні чинять істотний вплив на поведінку споживачів шляхом таргетованої реклами, індивідуалізованих рекомендацій пошукових сервісів, персоналізованих стрічок новин тощо. Значною є небезпека маніпуляцій з використанням штучного інтелекту у політичній діяльності [13; 14]. Існує навіть спеціальний термін – «астротурфінг»[1], яким позначають імітацію громадської підтримки ініціатив[7].

Дискримінація. Через особливості машинного навчання, технології яка лежить в основі «слабкого» штучного інтелекту, недостатня якість даних, використаних в процесі розробки системи може призвести до системних порушень її функціонування. Прикладом означеної проблеми може слугувати упередженість автоматизованих систем відбору персоналу. «Навчальний» набір даних для таких систем як правило представляє собою відомості щодо успішних рішень з підбору персоналу. Оскільки цей процес у багатьох сферах не є гендернонейтральним, мали місце випадки уведення в експлуатацію систем, які помножували гендрену нерівність під час функціонування [6].

Непрозорість. Правові гарантії інтелектуальної власності та конкурентна боротьба на ринку інформаційних технологій зумовлюють закритість алгоритмів систем штучного інтелекту, що унеможливлює перевірку правильності рішень та ефективний контроль за їх станом. У тих сферах де неправильна робота систем штучного інтелекту здатна заподіяти значну шкоду, така ситуація створює небезпеку.

Означені ризики досить чітко окреслюють проблеми застосування систем штучного інтелекту для протидії злочинності. Використання систем штучного інтелекту правоохоронними та судовими органами здатне забезпечити якісне оновлення їх діяльності. У зарубіжних країнах в практику правоохоронних органів впроваджені проекти пов’язані із класифікацією та розпізнаванням об’єктів, розпізнаванням звукових сигналів (мови або, наприклад, системи визначення пострілів). Запропоновані технічні рішення для аналізу великих об’ємів даних на основі алгоритмів машинного навчання. У такий спосіб здійснюється аналіз відомостей про телефонні або інтерент-з’єднання, про використання платіжних систем, віртуальних активів тощо. Такі рішення використовуються як потужні інструменти розслідування злочинів. Розробляються системи прогнозування злочинності та оцінки ризику індивідуальної протиправної поведінки на основі штучного інтелекту.

Водночас, ризики використання таких систем не обмежуються небезпекою порушень таємниці приватного життя. Значними є ризики дискримінації та непрозорості. Алгоритми оцінки кримінального ризику (criminal risk assessment algorithms) використовуються деякими судами для прийняття рішень щодо визначення виду покарання, доцільності перебування у в’язниці до суду, суворості вироків. Теоретично це зменшує упередженість оскільки судді приймають рішення на основі обробки даних, а не власних, можливо суб’єктивних, переконань. При цьому постає надзвичайно важливе питання. Через те, що базою для алгоритму є прийняті раніше рішення, він (алгоритм) може посилювати й увічнювати упередження, генерувати ще більшу кількість упереджених даних для подальших циклів ще більш упереджених рішень[8]. Наприклад, якщо перед суддею особа з невеликим доходом, алгоритм з дуже великою вірогідністю буде радити застосувати ув’язнення до суду. Наступного разу у подібній ситуації алгоритм буде ще категоричніший, наступного – ще й ще…

Подібні проблеми існують і під час впровадження систем прогнозування злочинності[25]. Ідея полягає у тому, що на підставі аналізу даних про зареєстровані кримінальні правопорушення системи визначають райони, що потребують посиленої уваги правоохоронців. В ці райони направляється більша кількість патрулів чим має забезпечуватися більш ефективне використання ресурсів та досягатися необхідний рівень безпеки громадян. Результати впровадження таких системи показали зворотній бік проблеми. Чим більше поліцейських направлялося у заданий район тим більшою була кількість виявлених у цьому районі правопорушень. Алгоритм фіксував прийняте рішення як правильне і продовжував рекомендувати посилені наряди для визначених районів. У такий спосіб увічнювався «кримінальний» статус таких районів але загальне використання ресурсів поліції не ставало більш ефективним, загальний рівень безпеки громадян не підвищувався.

Наприклад, щоб оцінити упередженість поліцейського прогнозування, Група аналізу даних з прав людини (HRDAG) проаналізувала зареєстровані поліцейським управлінням Окленду злочини, пов’язані з наркотиками. Управління використовувало спеціальний алгоритм обробки великих даних для прогнозування наркозлочинів. Звичайно, HRDAG виявила, що прогностична модель, майже виключно зосередилася на неєвропеоїдних спільнотах з низьким рівнем доходу. Але дані громадської охорони здоров’я щодо споживачів наркотиків у поєднанні з даними перепису населення США показали, що розподіл споживачів наркотиків не корелює з прогнозами програми, демонструючи, що прогнози алгоритму базувалися на упередженості, а не на реальності[15].

Показовим є те, що у червні 2020 міська рада Санта Круз, американського міста яке одним з перших почало застосовувати для потреб поліції технології розпізнавання обличчя та прогнозування злочинів, відмовилася від використання таких систем ураховуючи численні прояви упередженості їх роботи та недостатню ефективність. Рішення полягало у забороні використовувати обидві технології, за винятком схвалення міською радою на основі «висновків про те, що технологія і дані, які використовуються для цієї технології, відповідають науково підтвердженим та рецензованим дослідженням, захищають і охороняють цивільне населення, права і свободи всіх людей і не увічнюють упередженість»[9].

Крім зазначених проблем з дискримінацією багато питань виникає й через непрозорість функціонування зазначених систем. Як зазначалося раніше покрокове відстеження рішення, що приймається подібними системам є доволі складною проблемою. І якщо такі ризики є допустимим під час, наприклад, автоматизованого перекладу текстів з остаточним їх редагуванням людиною, то в ситуації коли такі алгоритми використовуються в сфері юстиції, вони мають бути максимально відкритими та прозорими [11].

Подібні небезпеки властиві не тільки сфері охорони правопорядку. Накопичений досвід та «критична» маса загроз неконтрольованого розширення сфери застосування систем штучного інтелекту зумовили появу законодавчих ініціатив, спрямованих на створення комплексної нормативно-правової бази для забезпечення відповідального розвитку штучного інтелекту, захисту основних прав і сприяння інноваціям. В якості найбільш актуальних слід відзначити розпочаті урядом США 13 квітня 2023 року громадські обговорення щодо «політики підзвітного штучного інтелекту»[16], а також обговорення проєкту, презентованого Європейською Комісією у квітні 2021 під назвою «The proposal for a regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act, AIA) and Amending Certain Union Legislative Acts»[17].

AIA використовує поняття «система штучного інтелекту» (ШІ) та визначає його наступним чином: програмне забезпечення, яке

а) розроблене з використанням одного або кількох підходів, що відносяться до:

  • методів машинного навчання, включаючи контрольоване, неконтрольоване та навчання з підкріпленням, з використанням різноманітних методів, у тому числі глибокого навчання;
  • методів, що ґрунтуються на логіці та знаннях, включаючи представлення знань, індуктивне (логічне) програмування, бази знань, логічні та дедуктивні механізми, (символічні) міркування та експертні системи;
  • статистичних методів, включаючи байєсовську оцінку, методи пошуку та оптимізації;

б) може, для заданого набору визначених людиною цілей, генерувати результати, такі як контент, прогнози, рекомендації, або рішення, що впливають на середовище, з яким вони взаємодіють.

Визначення з усією очевидністю свідчить про фокус європейських законодавців на суто практичних питаннях використання продуктів, які вже існують або можуть бути створені. За нашою класифікацією розробка означеного проєкту відноситься до тактичного рівня наукової дискусії з питань соціалізації штучного інтелекту.

У АІА програми штучного інтелекту класифікуються на основі потенційних рівнів ризику. Категорія «неприйнятний ризик штучного інтелекту» забороняє розробку та використання певних програм штучного інтелекту, наприклад систем соціального скорингу. До «штучного інтелекту високого ризику» віднесено системи, які можуть поставити під загрозу безпеку людей або порушити їхні основні права.

 Авторами AIA реалізовано ідею нормативної мінімізації вказаних раніше соціальних ризиків впровадження ШІ. Порушення приватності пропонується контролювати у спосіб класифікованих за рівнем ризику вимог щодо розробки, введення в експлуатацію та використання систем ШІ.

Небезпеки впливу на поведінку людини, мінімізуються шляхом заборони окремих видів ШІ, які пропонується відносити до “Prohibited Artificial Intelligence Practices” (Article 5, AIA). Такі системи характеризуються «неприйнятним ризиком» та поділяються на 4 категорії: дві з них стосуються когнітивного поведінкового маніпулювання людьми або певними вразливими групами; інші 2 заборонені категорії це системи соціального скорингу та системи біометричної ідентифікації в режимі реального часу та на відстані. Однак для кожної категорії є винятки з основного правила [18].

Непрозорість пропонується долати шляхом обов’язкового документування створення, використання та вдосконалення високоризикованих систем ШІ, постійної актуалізації технічної документації таких систем, наявністю обов’язку виробника надавати контролюючим органам вичерпну інформацію щодо поточного стану системи ШІ, які віднесено до високоризикованих.

Нарешті, мінімізація упередженості забезпечується шляхом контролю за змістом та репрезентативністю навчальних, валідаційних та тестових наборів даних.

Важливими є положення AIA щодо підтримки досліджень та інновації в області ШІ. Зокрема, пропонується механізм «регуляторних пісочниць» (regulatory sandboxes), регуляторних інструментів, які дозволяють підприємствам тестувати та експериментувати з новими та інноваційними продуктами чи послугами під наглядом регулятора протягом обмеженого періоду часу. Регуляторні пісочниці виконують подвійну роль: 1) вони сприяють бізнес-навчанню, тобто розробці та тестуванню інновацій у реальному середовищі; та 2) підтримка регуляторного навчання, тобто формулювання експериментальних правових режимів для керівництва та підтримки бізнесу в їх інноваційній діяльності під наглядом регуляторного органу. На практиці підхід спрямований на те, щоб уможливити експериментальні інновації в рамках контрольованих ризиків і нагляду, а також покращити розуміння регуляторами нових технологій[21].

Значну увагу AIA приділяє системам ШІ, які використовують правоохоронні органи. Певні інструменти ШІ в правоохоронних органах віднесено до категорії «високого ризику» (AIA Annex III). Йдеться про системи призначені для:

  • віддаленої біометричної ідентифікації;
  • індивідуальної оцінки ризику вчинення правопорушення або ризику  потенційних жертв кримінальних правопорушень;
  • використання правоохоронними органами як поліграфи та подібні інструменти або для виявлення емоційного стану фізичної особи;
  • виявлення діпфейків;
  • оцінки достовірності доказів під час розслідування кримінальних правопорушень;
  • прогнозування вчинення кримінального правопорушення на основі профілювання фізичних осіб, оцінки рис особистості, минулої злочинної поведінки фізичних осіб або груп;
  • профілювання фізичних осіб під час виявлення, розслідування або судового розгляду кримінальних правопорушень;
  • кримінального аналізу, що дозволяє правоохоронним органам здійснювати пошук у складних пов’язаних і непов’язаних великих наборах даних, доступних у різних джерелах даних або в різних форматах даних, з метою виявлення невідомих закономірностей або виявлення прихованих зв’язків у даних[17].

Оскільки такі системи віднесено до високоризикових, їх користувачі, постачальники, розробники та продавці повинні дотримуватися передбачених AIA вимог. Зокрема, кожна програма, повинна пройти вичерпний процес оцінки та зменшення ризиків (оцінка відповідності). Висуваються вимоги до даних, які використовуються для навчання цих систем штучного інтелекту, їх набори мають бути достатніми, щоб попередити дискримінаційні результати та алгоритмічні упередженя[20]. Сертифікація, оцінка та моніторинг високоризикованих систем ШІ має відбуватися спеціальним уповноваженим органом, такі системи мають бути зареєстрованими та включеними у відповідну базу даних, має бути забезпечений постійний процес запису та зберігання відомостей щодо всіх подій, які відбуваються у системі, необхідним є забезпечення надійності функціонування та кіберзахисту системи тощо.

Ключовою вимогою до постачальників високоризикованих ШІ є вимога створення комплексної системи управління якістю (Art. 17 AIA), що має включати:

  • стратегію дотримання вимог АІА, включаючи виконання процедур оцінки відповідності та внесення змін до системи;
  • техніки контролю якості та забезпечення якості;
  • процедури випробування, тестування та підтвердження, які мають бути виконані перед, під час і після розробки системи;
  • технічні специфікації, включаючи стандарти, які мають бути застосовані;
  • системи та процедури управління даними, включаючи збір даних, аналіз, маркування даних, зберігання даних, фільтрацію даних, добування даних, агрегацію даних, збереження даних та будь-яку іншу операцію, пов’язану з даними, яка виконується для введення в експлуатацію високоризикових систем штучного інтелекту;
  • систему управління ризиками, як безперервний ітераційний процес, який виконується протягом усього життєвого циклу системи, що систематично оновлюється;
  • системи моніторингу після введення в експлуатацію;
  • процедури, повідомлення про серйозні інциденти;
  • процедури взаємодії з національними уповноваженими органами;
  • системи та процедури зберігання всієї відповідної документації та інформації;
  • управління ресурсами, включаючи заходи забезпечення безпеки постачання;
  • кадрову політику, включаючи визначення відповідальності керівництва за напрямами системи забезпечення якості[16].

Настільки багато уваги деталям ми приділили оскільки вважаємо, що вони найкраще демонструють як змінилася дискусія щодо правового регулювання соціалізації штучного інтелекту. Цілком природньо, що починалася вона з питань стратегічного рівня, але фактичні інформаційні технології, їх використання та розширення сфери застосування достатньо чітко визначили напрями подальшого розвитку дискурсу. Фокус змістився на чіткі прикладні задачі, дискусія набула традиційного юридичного характеру та змісту.

Законопроєкт отримав переважно схвальні відгуки науковців, водночас були представлені й критичні позиції. Наприклад, на думку М. Веле та Ф. Зуйдервена Боргесіуса, AIA “зібраний із законодавства про безпеку продукції 1980-х років, захисту основних прав, нагляду та захисту споживачів”,  такий підхід не дозволяє розглядати законопроєкт як всеосяжний та позбавлений істотних пробілів. Наприклад, положення про прозорість або мало додають до чинного законодавства, або викликають більше запитань, ніж відповідей, коли розглядаються їхні наслідки [19].

Новий виток дискусії з’явився з появою ChatGPT. Виникло питання, чи може генеративний штучний інтелект загального призначення бути використаним для заподіяння шкоди, чи може він стати частиною злочинного використання ШІ та, відповідно, чи не підлягатиме він забороні як один з видів “Prohibited Artificial Intelligence Practices”. Гіпотетично, представлені у відкритому доступі системи ШІ такі як ChatGPT, Midjourney або DALL E можуть, та, скоріше за все, будуть використовуватися для вчинення злочинів. Чи означає це, що вони мають бути забороненими? Зрозуміло ні. Європейські законодавці без сумніву знайдуть збалансоване рішення. Дискусія триває[22]. На нашу думку вихід полягає у відмові від правил для систем та формулюванні правил використання систем у певних сферах діяльності людини.

Для продовження дискусії.

  1. Встановлення тенденцій та закономірностей соціалізації штучного інтелекту відбувається у науковій дискусії, яка має стратегічний і тактичний рівні.
  2. Сучасна дискусія характеризується більшою увагою до практичних та прикладних проблем. Правове регулювання використання технологій ШІ розглядається одночасно як засіб мінімізації ризиків та засіб стимулювання позитивних економічних трансформацій.
  3. Існує потреба правового регулювання використання систем ШІ в Україні. Чинна система норм видається недостатньою[23]. Бажано щоб український закон про використання систем штучного інтелекту містив такі положення:
    • визначення, побудоване на основі європейського підходу, яке б чітко обмежило сферу нормативного впливу, структурувало національний юридичний та технічний дискурс;
    • класифікація сфер використання штучного інтелекту за небезпекою можливих ризиків;
    • залежний від цієї класифікації розподіл  вимог до використання систем ШІ;
    • можливість як створювати системи ШІ, орієнтовані на конкретні сфери застосування, так і проводити локалізацію систем ШІ загального призначення;
    • обов’язкова диверсифікація систем ШІ, сфери використання яких характеризуються найбільшим ризиком;
    • гнучкий механізм підтвердження відповідності системи ШІ вимогам, що пред’являються до її використання у певній сфері, такий підхід стимулюватиме розроблення нових технічних рішень та забезпечуватиме необхідну динаміку використовуваних технологій;
    • можливість періоду експериментального правового регулювання систем ШІ, протягом такого періоду контролюючі органи зобов’язуються надати пропозиції розробникам щодо проходження процедури відповідності (regulatory sandboxes);
    • правові засоби лібералізації інвестиційної діяльності в сфері використання систем ШІ.
  4. Регулювання використання систем ШІ національними правоохоронними має відбуватися у спосіб формулювання спеціальних норм до загальних правил, які названі вище. Відсутність чітких та зрозумілих законодавчих положень про можливі обмеження приватності громадян під час використання технологій ШІ для протидії злочинам, створює реальну небезпеку визнання діяльності правоохоронців незаконною навіть за формальною ознакою (не «у відповідності до закону»).
  1. Vinge V. The Coming Technological Singularity. Acceleration Studies Foundation. URL : http://www.accelerating.org/articles/comingtechsingularity.html (дата звернення: 16.10.2023).
  2. Karchevskyi, M., Losych, S., & Germanov, S. (2023). Socialization of artificial intelligence and transhumanism: legal and economic aspects. Baltic Journal of Economic Studies, 9(1), 61-70. https://doi.org/10.30525/2256-0742/2023-9-1-61-70
  3.  Bostrom N. The transhumanist frequently asked questions: a general introduction. Nick Bostrom`s personal site. URL : http://nickbostrom.com/views/transhumanist.pdf  (дата звернення: 16.10.2023).
  4. Michal Kosinski, David Stillwell & Thore Graepel, “Private traits and attributes are predictable from digital records of human behavior” (2013) 110:15 Proceedings of the National Academy of Sciences 5802.
  5. Kashmir Hill, “How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did”, Forbes (16 February 2012), online: https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/
  6. Examples of Biased Artificial Intelligence // Logically. 30.07. 2019. URL : https://www.logically.ai/articles/5-examples-of-biased-ai
  7. Dupont B., Stevens Y.,  Westermann H., Joyce M. Artificial Intelligence in the Context of Crime and Criminal Justice , Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC, Université de Montréal, (2018). URL : https://www.cicc-iccc.org/public/media/files/prod/publication_files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf
  8. Hao K. AI is sending people to jail—and getting it wrong. MIT Technology Review. 21.01.2019. URL : https://www.technologyreview.com/s/612775/algorithms-criminal-justice-ai/
  9. Ibarra N. Santa Cruz becomes first U.S. city to approve ban on predictive policing. Santa Cruz Sentinel. 23.06.2020. URL: https://www.santacruzsentinel.com/2020/06/23/santa-cruz-becomes-first-u-s-city-to-approve-ban-on-predictive-policing/
  10. McGrory K., Bedi N. Targeted. The Tampa Bay Times. 3.09.2020 URL: https://projects.tampabay.com/projects/2020/investigations/police-pasco-sheriff-targeted/intelligence-led-policing/
  11. Guariglia M. Technology Can’t Predict Crime, It Can Only Weaponize Proximity to Policing. Electronic Frontier Foundation. 3.09.2020. URL : https://www.eff.org/deeplinks/2020/09/technology-cant-predict-crime-it-can-only-weaponize-proximity-policing
  12. Zalnieriute, Monika, Big Brother Watch and Others v. the United Kingdom (July 14, 2022). American Journal of International Law, 2022, Vol 116(3), pp. 585-592., Available at SSRN: https://ssrn.com/abstract=4162965
  13. Yuval Noah Harari argues that AI has hacked the operating system of human civilisation. – The Economist. 6.05.2023. – URL: https://www.economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-ai-has-hacked-the-operating-system-of-human-civilisation
  14. Guggenberger N., Salib P. From Fake News to Fake Views: New Challenges Posed by ChatGPT-Like AI. – The Lawfare Institute. 20.01.2023. – URL: https://www.lawfaremedia.org/article/fake-news-fake-views-new-challenges-posed-chatgpt-ai
  15. Lum K., Isaac W. To Predict and Serve? //Significance, Volume 13, Issue 5, October 2016, Pages 14–19, https://doi.org/10.1111/j.1740-9713.2016.00960.x
  16. AI Accountability Policy Request for Comment. A Notice by the National Telecommunications and Information Administration on 13.04.2023 // Federal Register. https://www.federalregister.gov/documents/2023/04/13/2023-07776/ai-accountability-policy-request-for-comment
  17. European Commission. Proposal For a Regulation of The European Parliament and of The Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, COM/2021/206 final, 2021/0106(COD), 2021. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
  18. Kop M. EU Artificial Intelligence Act: The European Approach to AI // Stanford – Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2021. – URL: https://law.stanford.edu/publications/euartificial-intelligence-act-the-european-approach-to-ai/ 
  19. Veale M. Zuiderveen Borgesius F. Demystifying the Draft EU Artificial Intelligence Act // Computer Law Review International. – 2021 (4). https://doi.org/10.9785/cri-2021-220402
  20. The EU AI act. – AP4AI Accountability Principles for AI. – URL: https://ap4ai.eu/eu-ai-act
  21. Madiega T., Van De Po A. L. Artificial intelligence act and regulatory sandboxes. – European Parliamentary Research Service. PE 733.544 – June 2022. – URL: https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf
  22. Hacker P., Engel A., and Mauer M. 2023. Regulating ChatGPT and other Large Generative AI Models. In Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’23). Association for Computing Machinery, New York, NY, USA, 1112–1123. https://doi.org/10.1145/3593013.3594067
  23. Karchevskyi M., Radutniy O. Ukrainian Report on Traditional Criminal Law Categories and AI (Artificial Intelligence) / Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Colloquium Section I, Siracusa, 15-16 September 2022) Edited by Lorenzo Picotti, Beatrice Panattoni. RIDP, Vol. 94 issue 1, 2023. – 385 p. – pp. 363 – 383
  24. Mindell, David A.. Our Robots, Ourselves: Robotics and the Myths of Autonomy. New York, New York, Viking, 2015.
  25. Trejo О. What Is Bias in Machine Learning? // Scalable Path. – 4.05.2020. URL: https://www.scalablepath.com/machine-learning/bias-machine-learning

[1] Grassroots (з англ.  - «коріння трави») – термін сучасної американської політології; так у США називають спонтанні руху «знизу». Під grassroots розуміються умовно кажучи «справжні» рухи, організовані громадянами для боротьби за свої права. Імітацію ж «кореневого руху» називають astroturfing; у цьому випадку за псевдонародним рухом є політичне лобі (Wikipedia).

Залишити коментар