Штучний інтелект та протидія злочинності

Виступ у ЛДУВС ім. Е.О. Дідоренка 13.11.2020

Питання, порушене в назві, є надзвичайно актуальним, але потребує уточнення. Найбільш поширеною класифікацією технологій штучного інтелекту є їх поділ на «сильний» та «слабкий» штучний інтелект. Сильний являє собою гіпотетичний пристрій, який має здатність мислити, усвідомлювати оточуючий світ та себе як особистість, виконувати всі завдання, як і людина, або навіть перевищувати її інтелектуальні здібності. Слабкий штучний інтелект орієнтований на вирішення одного або кількох завдань, які виконує людина. Наприклад, керування транспортним засобом, або гра в шахи [19].

На сьогодні очевидно, що сильний штучний інтелект є гіпотетичною технологією та залишатиметься в такій стадії ще невизначений час. Можливо, технології сильного штучного інтелекту отримають статус суб’єкта права, виникнуть нові сфери юстиції. Крім традиційної юстиції, можна буде казати про появу двох нових видів, умовно назвемо їх «змішана юстиція» та «юстиція штучного інтелекту». До змішаної юстиції будуть відноситися форми вирішення правових спорів між фізичними, юридичними особами, суспільством та роботами. До юстиції штучного інтелекту належатимуть форми вирішення правових спорів між роботами. Крім цього, функціонування даної системи юстиції буде забезпечувати протидію роботам, що являють загрозу для соціального розвитку та стабільності. Швидше за все копіювати людську систему юстиції для штучного інтелекту не будуть. Принципово різні фізичні характеристики та потреби вимагають апріорі відмовитися від такого підходу. Водночас створення даної системи стане необхідною умовою для того, щоб забезпечити людству можливість контролювати розвиток суспільних процесів. Скоріше за все, юстиція штучного інтелекту буде створена на основі роботів. Фізичних та інтелектуальних даних людини, очевидно, стане недостатньо для ефективного функціонування даної системи юстиції. Створення такої системи буде потребувати узагальнення в чіткі алгоритми досвіду, отриманого за час існування традиційної юстиції. Таке узагальнення, можливо, стане одним із основних напрямків майбутньої юридичної науки.

Імовірно, зміни у юстиції відбуватимуться за іншим сценарієм. На тепер очевидно тільки те, що вплив технологій сильного штучного інтелекту на протидію злочинності може бути досліджений виключно гіпотетично.

Водночас, значний інтерес має огляд можливостей використання так званого «слабкого» штучного інтелекту у сфері протидії злочинності. Автори дослідження Artificial Intelligence in the Context of Crime and Criminal Justice, здійсненого Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC та Université de Montréal [5] визначають чотири загальні групи ризиків використання таких технологій: таємниця приватного життя, підштовхування до певних дій, дискримінація, непрозорість.

Обробка з використанням технологій штучного інтелекту великих обсягів інформації, які генеруються під час повсякденної діяльності сучасної людини, створює нові небезпеки для прайвесі. Так у відомій роботі М. Косінскі аргументував, що 68 «лайків» у Фейсбук вистачить для того, щоб із досить великою точністю встановити тип особистості, стать, колір шкіри та політичні уподобання [16]. Також у контексті ризиків для таємниці приватного життя досить часто наводиться приклад роботи програми лояльності мережі супермаркетів Target (США). Алгоритм, що використовувала мережа, за історією покупок молодої жінки передбачив її вагітність та почав надсилати їй акційні пропозиції товарів для новонароджених до того, як про вагітність дізналася сама жінка [10].

Наступна група ризиків пов’язана з можливістю впливу на поведінку людини шляхом персоналізації контенту соціальних медіа та інших джерел інформації. Ця тема достатньо добре досліджена на прикладах роботи алгоритмів, що генерують стрічки новин соціальних медіа, персональних рекомендацій під час здійснення пошукових запитів, так званої таргетованої реклами. У подібному контексті варто пригадати й відому ситуацію з передвиборчою кампанією Д. Трампа та використанням для цього інформаційних профілів 87 млн. американців, отриманих Cambridge Analytica шляхом аналізу активності користувачів Facebook [15].

Ризик дискримінації пов’язаний із принципами роботи «слабкого» штучного інтелекту. Такі технології працюють шляхом порівняння отриманих даних із великим обсягом інформації опрацьованою системою під час так званого процесу «навчання». Цей процес, у найбільш загальних рисах, полягає в тому що певні дані, наприклад, рукописні символи, позначаються так, як їх має розпізнавати алгоритм, та завантажуються до системи. Такі дані прийнято називати навчальними. Потім генерується набір тестових даних і здійснюється перевірка роботи системи, наскільки правильно система розпізнає тестові дані. Коли досягається необхідний рівень точності розпізнавання, система вводиться в експлуатацію. Важливо й те, що протягом експлуатації система постійно корегує свою роботу й підвищує точність результатів. Можна сказати, що ризик дискримінації закладений у самому принципі функціонування «слабкого» штучного інтелекту, який буде використовуватися для розв’язання соціальних задач. Очевидно, що в будь- якій сфері діяльності людини існує певна упередженість. Якщо результати цієї діяльності стануть навчальним набором даних, отримаємо систему штучного інтелекту, яка буде повторювати людську упередженість, ба більше, з кожним новим рішенням упередженість буде помножуватися. Прикладом означеної проблеми може слугувати упередженість автоматизованих систем відбору персоналу. «Навчальний» набір даних для таких систем, як правило, являє собою відомості щодо успішних випадків підбору персоналу. Оскільки цей процес у багатьох сферах не є гендерно нейтральним, існує ризик отримати системи, які будуть помножувати гендрену нерівність під час функціонування. Широко відомим є приклад такої упередженості в роботі алгоритму найму працівників компанії Amazon [1].

Нарешті непрозорість полягає в тому, що переважна більшість проектів у сфері штучного інтелекту є комерційними. Через це виробники тримають у таємниці особливості алгоритмів, оскільки саме вони забезпечують конкурентні переваги на ринку відповідних послуг. Як зазначалося раніше, системи штучного інтелекту здійснюють постійне вдосконалення своєї роботи, спираючись на її поточні результати. З часом відповідь на питання, чому система зробила такий вибір, стане дуже складною. Необхідно буде проаналізувати не тільки навчальний і тестовий набори, але й з’ясувати кожне прийняте рішення та оцінити його вплив на розвиток системи. В умовах обмеженого доступу до алгоритмів таке завдання стає практично неможливим.

Названі загальні ризики автори згаданого дослідження [5] інтерпретують у трьох напрямах, що складають, на їхню думку, зміст впливу технологій штучного інтелекту на кримінальну юстицію: вчинення злочинів, діяльність правоохоронців, здійснення правосуддя.

Аксіомою є те, що злочинці використовують технологічні досягнення. Розробки у сфері штучного інтелекту не є винятком. Фахівці зазначають, що для успішної реалізації проектів на основі штучного інтелекту необхідні: доступ до значних об’ємів структурованих даних, спеціальне програмне забезпечення та знання, відповідне обладнання. Сучасний рівень інформатизації суспільства дозволяє зробити висновок про те, що всі ці складові є доступними значній кількості суб’єктів. Надвеликі обсяги інформації, специфічне програмне забезпечення численні онлайн курси з технологій штучного інтелекту широко представлені у вільному доступі. До того ж існує достатньо розгалужений кримінальний ринок даних. Обладнання достатньої потужності завдяки успіхам технології представлено на легальному ринку за доступною ціною. Усе це дозволяє прогнозувати широке використання технологій штучного інтелекту для злочинних цілей [5, с. 33-37].

Означені вище загальні ризики для таємниці приватного життя, а також впливу на поведінку людей шляхом формування персонального інформаційного середовища можуть бути використані для профілювання значної кількості людей із метою подальшого шахрайства шляхом автоматизованого фішигу або вішингу. Вірогідними можуть стати масштабні кібератаки на основі автоматизованого виявлення уразливостей комп’ютерних систем та їх знову ж таки автоматизованого використання. Протиправне використання технологій штучного інтелекту можливе також шляхом створення високоякісних підробок відео- або аудіоконтенту, розробки надскладних схем легалізації доходів, здобутих злочинним шляхом тощо [5, с. 40-56].

Використання технологій штучного інтелекту здатне не тільки значно збільшити масштаби традиційної злочинності, можливою є поява принципово нових видів кримінальних правопорушень. Ідеться про так звані «змагальні» атаки (adversarial attacks) та «отруєння» штучного інтелекту.

Перші полягають у відшукуванні недосконалостей створених систем розпізнавання образів або мовлення (звуку) та подальшому їх використанні для приведення пристроїв зі штучним інтелектом у некоректний режим роботи. Принцип здійснення такої атаки добре ілюструє випадок зі «зламом» американської платформи онлайн-навчання Edgenuity. Запропоновані учням завдання передбачали написання коротких повідомлень. Користувачі помітили, що система оцінює письмові роботи майже миттєво, отже, робить це автоматично. Ба більше, максимальний бал можна отримати, якщо, замість відповіді, вводити набір слів, які мають відношення до теми. У такий спосіб переважна більшість учнів отримала найвищий бал. Уразливість системи штучного інтелекту, яка полягала у відсутності можливості відмежовувати текст від набору ключових слів, була використана для компрометації цієї системи [3]. Зрозуміло, що наслідки змагальних атак можуть бути більш небезпечними. Як приклад подібних дій досить часто згадують наклеювання стрічок на знаки дорожнього руху, які приводять до порушень оцінки дорожньої обстановки системами автономного керування транспортними засобами. Такі атаки можуть полягати й у розробці засобів для порушення систем розпізнавання обличчя чи ідентифікації голосу, для аналізу систем автоматизованого виявлення шахрайських операцій в платіжних системах із метою подальшого приховування подібних операцій тощо.

«Отруєння» штучного інтелекту полягає у втручанні в процес розробки пристроїв шляхом внесення змін до так званих «навчальних» наборів даних. У результаті подібних дій пристрій зі штучним інтелектом у певних ситуаціях функціонує у спосіб, який значно відрізняється від запланованого розробниками [5, с. 58-60].

Використання систем штучного інтелекту правоохоронними та судовими органами здатне забезпечити якісне оновлення їх діяльності. У зарубіжних країнах до практики правоохоронних органів впроваджені проекти, пов’язані із класифікацією та розпізнаванням об’єктів, розпізнаванням звукових сигналів (мови або, наприклад, системи визначення пострілів). Запропоновані технічні рішення для аналізу великих обсягів даних на основі алгоритмів машинного навчання. У такий спосіб здійснюється аналіз відомостей про телефонні або інтерент-з’єднання, про використання платіжних систем тощо. Подібні рішення використовуються як потужні інструменти розслідування злочинів. Розробляються системи прогнозування злочинності та оцінки ризику індивідуальної протиправної поведінки на основі штучного інтелекту.

Л. Еліот пропонує класифікацію рівнів автоматизації правозастосовчої діяльності. На його думку, їх сім. Рівень 0 – автоматизація відсутня. Рівень 1 – проста автоматизація, використання електронного документообігу, онлайн сервісів законодавчої інформації. Рівень 2 – розширена автоматизація, використання систем машинного навчання для класифікації даних щодо юридичної практики, пошукові запити до юридичних баз даних на основі нейролінгвістичного програмування. Рівень 3 – напівавтономні системи, експертні системи підтримки формулювання висновків для конкретних справ. Наприклад, суддя під час підготовки висновку по конкретній справі отримує пропозиції від автоматизованої системи, що ґрунтуються на попередній практиці щодо подібних випадків. Рівень 4 – галузева автономність, повністю автономні рішення для окремих галузей юридичної практики. Наприклад, автономна, без участі людини, система нотаріату. Рівень 5 – повна автономність. Існуюча система правозастосовчої діяльності є повністю автономною та функціонує на основі систем «сильного» штучного інтелекту, які повністю відтворюють людський інтелект. Рівень 6 – повна автономність на основі штучного інтелекту, який перевищує інтелект людини. Як справедливо зазначає автор, на сьогодні існують та є більш-менш розповсюдженими системи першого та другого рівнів. Як прототипи або в рамках експериментальної експлуатації  існують системи третього рівня [6]. Це, зокрема, згадані раніше системи прогнозування злочинності та оцінки ризику індивідуальної протиправної поведінки.

Проте через ризики дискримінації та непрозорості впровадження останніх викликає багато дискусій. Алгоритми оцінки кримінального ризику (criminal risk assessment algorithms) використовуються деякими судами для прийняття рішень щодо визначення виду покарання, доцільності перебування у в’язниці до суду, суворості вироків. Теоретично це зменшує упередженість, оскільки судді приймають рішення на основі обробки даних, а не власних, можливо, суб’єктивних, переконань. Притому постає надзвичайно важливе питання. Через те що базою для алгоритму є прийняті раніше рішення, він (алгоритм) може посилювати й увічнювати упередження, генерувати значно більшу кількість упереджених даних для подальших циклів ще більш упереджених рішень [8]. Наприклад, якщо перед суддею особа з невеликим доходом, алгоритм із дуже великою вірогідністю буде радити застосувати ув’язнення до суду. Наступного разу в подібній ситуації алгоритм буде більш категоричний, іншого – ще й ще…

Подібні проблеми існують і під час впровадження систем прогнозування злочинності. Ідея полягає в тому, що на підставі аналізу даних про зареєстровані кримінальні правопорушення системи визначають райони, які потребують посиленої уваги правоохоронців. У ці райони направляється більша кількість патрулів, чим має забезпечуватися ефективніше використання ресурсів та досягатися необхідний рівень безпеки громадян. Результати впровадження таких системи показали зворотній бік проблеми. Чим більше поліцейських направлялося в заданий район, тим більшою була кількість виявлених у цьому районі правопорушень. Алгоритм фіксував прийняте рішення як правильне і продовжував рекомендувати посилені наряди для визначених районів. У такий спосіб увічнювався «кримінальний» статус таких районів, але загальне використання ресурсів поліції не ставало більш ефективним, загальний рівень безпеки громадян не підвищувався.

Показовим є те, що в червні 2020 міська рада Санта Круз, американського міста, яке одним із перших почало застосовувати для потреб поліції технології розпізнавання обличчя та прогнозування злочинів, відмовилася від використання таких систем, ураховуючи численні прояви упередженості їхньої роботи та недостатню ефективність. Рішення полягало в забороні використовувати обидві технології, за винятком схвалення міською радою на основі «висновків про те, що технологія і дані, які використовуються для цієї технології, відповідають науково підтвердженим та рецензованим дослідженням, захищають і охороняють цивільне населення, права і свободи всіх людей і не увічнюють упередженість» [9].

Як приклад шкоди, заподіяної прогностичною поліцейською програмою, наводиться робота офісу шерифа округа Паско (США). Після того, як 15-річний підліток був затриманий за крадіжку велосипедів, алгоритм постійно направляв поліцію для перевірки його самого та його родини. За п’ять місяців поліція приходила до нього додому 21 раз. Вони перевіряли його в спортивній залі, відвідували батьків за місцем роботи. Газета Tampa Bay Times повідомляла, що за 5 років офіс шерифа здійснив більше12 500 аналогічних превентивних відвідувань [13].

Крім зазначених проблем із дискримінацією, багато питань виникає й через непрозорість функціонування зазначених систем. Як зауважувалося раніше, покрокове відстеження рішення, що приймається подібними системам, є доволі складною проблемою. І якщо такі ризики є допустимим під час, наприклад, автоматизованого перекладу текстів з остаточним їх редагуванням людиною, то в ситуації коли такі алгоритми використовуються у сфері юстиції, вони мають бути максимально відкритими та прозорими.

Зрештою отриманий досвід дозволяє фахівцям вважати, що недоліки прогностичного програмного забезпечення приводять до ситуації, коли вразливі члени суспільства стають об’єктом переслідувань із боку поліції, а це, своєю чергою, підриває довіру до поліції, створює більшу небезпеку [7].

Означені проблемні аспекти дозволяють авторам згаданого раніше дослідження[5] сформулювати низку критичних висновків щодо потенціальних можливостей використання технологій штучного інтелекту у сфері протидії злочинності. Найбільшої уваги, на нашу думку, заслуговують наступні.

По-перше, для побудови достатньо надійних систем «слабкого» штучного інтелекту необхідні великі обсяги даних. Водночас, даних, що збирають правоохоронні та судові органи, може бути недостатньо. Тут варто згадати запропонований нами критичний аналіз національних систем накопичення інформації про злочинність: наявна статистична інформація не дає можливості робити обґрунтовані висновки щодо стану кримінально-правового регулювання; дані щодо обліку правопорушень та судового розгляду неможливо інтегрувати; їх аналіз є обмежено ефективним [22].

По-друге, ризик непрозорості разом із разом із принципами машинного навчання, покладеними в основу наявних сьогодні технологій штучного інтелекту, робить неможливим використання досягнень сучасної кримінології. Велика частина знань, отриманих людством під час вивчення злочинності, опиняється через ці особливості поза межами автоматизованих прогнозів. Показовим тут є те, що один із найбільших поширених програмних продуктів, призначених для прогнозування злочинності, PredPol, використовує алгоритм, адаптованийі з принципово іншої сфери – сейсмології [5, с. 149].

По-третє, технології штучного інтелекту розвиваються дуже швидко. Наявне на сьогодні технічне рішення може виявитися застарілим уже через декілька років. Для того щоб упевнитися в цьому, достатньо порівняти роботу Google Translator сьогодні та, наприклад, п’ять років тому. У таких умовах масштабна імплементація технологій штучного інтелекту у сфері кримінальної юстиції може виявитися передчасною.

Технології штучного інтелекту, тим не менше, здатні забезпечити якісне оновлення протидії злочинності. Для чого вони мають використовуватися? Відповідь може бути сформульована таким чином: максимально можливий рівень індивідуалізації забезпечить принципово новий рівень ефективності кримінально-правового регулювання. Враховуючи зазначене, першочерговим кроком розвитку національної протидії злочинності в контексті використання технологій штучного інтелекту має стати збір та аналіз якомога більших обсягів даних щодо призначених покарань, психометричних характеристик злочинців, особливостей їх посткримінальної поведінки тощо. Наведені проблеми дискримінаційних рішень наявних сьогодні систем штучного інтелекту можуть бути подолані шляхом використання значно більшої кількості аргументів. Отже, для того щоб мати можливість забезпечити ефективне кримінально-правове регулювання та не залишатися осторонь світового наукового дискурсу, необхідно мати достатню кількість та якість даних. Паралельно із вдосконаленням національного кримінального законодавства має бути створена принципово нова система збору даних про стан кримінально-правового регулювання. Необхідним є якісно інший рівень накопичення даних щодо застосування закону та його впливу на поведінку засуджених, створення комплексної системи інформаційного забезпечення кримінально-правового регулювання [22].

Вплив технологій штучного інтелекту на протидію злочинності, на нашу думку, не вичерпуються оновленням злочинності та новими методами роботи правоохоронців і суддів. Самостійним сегментом тут слід вважати нові можливості в дослідженні злочинності. «Зростаюча інтеграція технологій у наше життя надає доступ до безпрецедентних обсягів даних про повсякденну поведінку суспільства. Такі дані відкривають нові можливості для роботи в напрямі розуміння наших складних соціальних систем у рамках нової дисципліни, відомої як обчислювальна соціальна наука (Computational Social Science)». Це зазначено у Маніфесті обчислювальної соціальної науки[11]. Методологія даної науки поділяється на такі групи, як: автоматизація збору даних, аналіз соціальних систем, соціальні геоінформаційні системи, моделювання соціальних систем тощо [4]. Дисципліна використовує комп’ютерне моделювання суспільства, дані, зібрані з мобільних та соціальних мереж, онлайн-експерименти із залученням сотень тисяч людей, для того щоб отримати відповіді на запитання, які раніше було неможливо дослідити. А. Манн влучно називає результати, що отримує дана наука, «поглядом на суспільство у великій розподільчій здатності (in high resolution)» [12].

Використання обчислювальної соціальної науки для розв’язання завдань, що стоять перед кримінологією, є достатньо перспективним. Наприклад, одним iз методів останньої групи є агентне моделювання (ABM, agent-based modeling). Ключові положення, що характеризують даний метод, наступні: «агент – автономний обчислюваний об’єкт із певними властивостями та діями; агенте моделювання – вид обчислювального моделювання, де явище моделюється шляхом визначення агентів та їх взаємодії» [18, с. 1]. Реалізується таке моделювання шляхом використання спеціалізованого програмного забезпечення, яке дозволяє описати властивості агентів та обчислювати результати їх взаємодії. Результат використання такого методу прийнято називати штучним суспільством (artificial society), що визначається як «створена з використанням комп’ютерної техніки симуляційна модель суспільства або групи людей, котра базується на агентах та зазвичай обмежена їх взаємодією в конкретній ситуації» [2].

З використанням програмного забезпечення NetLogo нами було створено модель протидії злочинності. Вихідний код моделі та демонстраційні матеріали представлено у вільному доступі [23; 21]. Хоча розробка моделі була пілотажним дослідженням, проте навіть на такому рівні вона дозволила підтвердити важливу гіпотезу: посилення покарання є менш ефективним, ніж заходи, не пов’язані з репресією. Сфера застосування методу агентного моделювання є достатньо широкою: дослідження феномену «кримінальної хвилі», встановлення порогових значень параметрів штучного суспільства, при яких здійснюється тотальна криміналізація, побудова гіпотез щодо найбільш ефективного використання суспільних ресурсів для протидії злочинності, вивчення проблем довіри до правоохоронних та судових органів, аналіз впливу щільності населення на рівень злочинності.

То ж для продовження дискусії пропонуємо наступні положення.

  1. Наукова дискусія щодо впливу штучного інтелекту на протидію злочинності як початкового аргументу має враховувати фактичний стан розвитку технологій.
  2. Вплив наявних технологій штучного інтелекту на протидію злочинності доцільно розглядати в таких вимірах: нові види злочинів, оновлення діяльності правоохоронних і судових органів, оновлення методів кримінологічних досліджень.
  3. Використання «слабкого» штучного інтелекту правоохоронними та судовими органами має значні обмеження, обумовлені принципами функціонування такої технології. Ці обмеження можуть бути подолані шляхом збільшення кількості аргументів для прийняття рішень.
  4. Першочерговим кроком впровадження національних систем штучного інтелекту у сфері протидії злочинності має стати створення системи комплексного інформаційного забезпечення кримінально-правового регулювання.
  5. Нові можливості, які отримує сучасна кримінологія в контексті розвитку обчислювальної соціальної науки, мають значні перспективи використання. Основним напрямом впровадження пропонується вважати наукову експертизу проєктів штучного інтелекту, які пропонується використовувати у сфері протидії злочинності з метою мінімізації ризиків негативних наслідків такого використання.

Використані джерела:


  1. 5 Examples of Biased Artificial Intelligence // Logically. 30.07. 2019. URL : https://www.logically.ai/articles/5-examples-of-biased-ai
  2. Branke J. Artificial Societies. URL:https://link.springer.com/referenceworkentry/10.1007%2F978-0-387-30164-8_36.
  3. Chin M. These students figured out their tests were graded by AI — and the easy way to cheat. “He’s getting all 100s” // The Verge. 2.09.2020. URL : https://www.theverge.com/2020/9/2/21419012/edgenuity-online-class-ai-grading-keyword-mashing-students-school-cheating-algorithm-glitch
  4. Cioffi-Revilla C. Computational Social Science // Wiley Interdisciplinary Reviews Computational Statistics 2(3). May 2010. P. 259-271.
  5. Dupont B., Stevens Y., Westermann H., Joyce M. Artificial Intelligence in the Context of Crime and Criminal Justice, Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC, Université de Montréal, (2018). URL:https://www.cicc-iccc.org/public/media/files/prod/publication/files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf.
  6. Eliot L. An Impact Model of AI on the Principles of Justice: Encompassing the Autonomous Levels of AI Legal Reasoning. URL:https://www.academia.edu/44020078/An_Impact_Model_of_AI_on_the_Principles_of_Justice_Encompassing_the_Autonomous_Levels_of_AI_Legal_Reasoning.
  7. Guariglia M. Technology Can’t Predict Crime, It Can Only Weaponize Proximity to Policing. Electronic Frontier Foundation. 3.09.2020. URL:https://www.eff.org/deeplinks/2020/09/technology-cant-predict-crime-it-can-only-weaponize-proximity-policing.
  8. Hao K. AI is sending people to jail—and getting it wrong. MIT Technology Review. 21.01.2019. URL:https://www.technologyreview.com/s/612775/algorithms-criminal-justice-ai/.
  9. Ibarra N. Santa Cruz becomes first U.S. city to approve ban on predictive policing. Santa Cruz Sentinel. 23.06.2020. URL:https://www.santacruzsentinel.com/2020/06/23/santa-cruz-becomes-first-u-s-city-to-approve-ban-on-predictive-policing/.
  10. Kashmir Hill, “How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did”, Forbes (16 February 2012). URL:https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/.
  11. Manifesto of Computational Social Science R. Conte, N. Gilbert, G. Bonelli, C. Cioffi-Revilla, G. Deffuant, J. Kertesz, V. Loreto, S. Moat, J. Nadal, A. Sanchez, A. Nowak, A. Flache, M. San Miguel, and D. Helbing. European Physical Journal Special Topics EPJST (2012). URL:https://www.bibsonomy.org/publication/20c26ecde5981441fee65c48864bb02b6/everyaware_bib.
  12. Mann A. Core Concept: Computational social science // PNAS January 19, 2016 113 (3) 468-470; URL:https://doi.org/10.1073/pnas.1524881113.
  13. McGrory K., Bedi N. Targeted. The Tampa Bay Times. 3.09.2020 URL:https://projects.tampabay.com/projects/2020/investigations/police-pasco-sheriff-targeted/intelligence-led-policing/.
  14. McMullan A. I. Judges: The Future of Justice Hangs in the Balance. Medium. 14.02.2019. URL:https://medium.com/s/reasonable-doubt/a-i-judges-the-future-of-justice-hangs-in-the-balance-6dea1540daaa.
  15. Meyer, Robinson, “My Facebook Was Breached by Cambridge Analytica. Was Yours?”, The Atlantic (10 April 2018). URL:https://www.theatlantic.com/technology/archive/2018/04/facebook-cambridge-analytica-victims/557648/.
  16. Michal Kosinski, David Stillwell & Thore Graepel, “Private traits and attributes are predictable from digital records of human behavior (2013) 110:15 Proceedings of the National Academy of Sciences 5802.
  17. Rose T. When U.S. air force discovered the flaw of averages.Thestar.com. 16.01.2016. URL:https://www.thestar.com/news/insight/2016/01/16/when-us-air-force-discovered-the-flaw-of-averages.html.
  18. Wilensky U., Rand W. (2015). An Introduction to Agent-Based Modeling: Modeling Natural, Social, and Engineered Complex Systems with NetLogo MIT Press. 505 p.
  19. Баранов О. А. Інтернет речей і штучний інтелект: витоки проблеми правового регулювання (частина 1). URL:http://aphd.ua/publication-376/.
  20. Карчевський М. В. Big Data та ефективність кримінально-правового регулювання. Вісник Луганського державного університету внутрішніх справ імені Е. О. Дідоренка. 2018. № 3. С. 83-90.
  21. Карчевський М.В. Агентне моделювання – нові можливості дослідження злочинності. Karchevkiy.org блог. URL : https://karchevskiy.org/2020/09/13/abm/
  22. Кримінально-правове регулювання в Україні: реалії та перспективи (аналітичні матеріали) / М. В. В’юник, М. В. Карчевський, О. Д. Арланова; упоряд. Ю. В. Байліе. Харків: Право, 2020. С. 197-204.
  23. Посилання для завантаження моделі:
    https://karchevskiy.org/2020/08/02/model-1/.
  24. Савинова М. В чем разница между искусственным интеллектом, машинным обучением и глубоким обучением? 27.08.2018. URL:https://blogs.oracle.com/russia/ai-ml-dl-differ.

Агентне моделювання – нові можливості дослідження злочинності

Львів, 17.09.20
Харків, 24.09.20

Сучасна наука про суспільство перебуває в так званій кризі реплікації. Отримані результати досліджень неможливо відтворити шляхом повторення програми певного дослідження. Так, фізика може дати чітку відповідь на питання про те, скільки енергії потрібно використати для переміщення будь-якого об’єкту з однієї точки простору в іншу. Наприклад, скільки та якого пального необхідно для виведення супутника на орбіту Землі. Причому метод обчислення може включати  багато параметрів і «працюватиме» в будь-який час. Чи можемо ми бути настільки впевненими в результатах суспільних наук? Питання риторичне. Висновки, отримані про найбільш оптимальний спосіб правового регулювання певних суспільних відносин, з великою вірогідністю не спрацюють в іншій сфері правового регулювання. Наукові рекомендації, за результатами соціологічного дослідження, скоріше за все, будуть корисними тільки локально. Якщо так, виникають цілком природні питання: чи можна вважати науку про суспільство наукою? чи дійсно вона встановлює тенденції та закономірності розвитку суспільства? Професор Каліфорнійського університету Martin Hilbert у цьому контексті пропонує говорити не про social science, а, скоріше, про social studies.

Зрозуміло, що перед суспільними науками стоять набагато складніші завдання. Описати суспільні процеси, використовуючи математичні формули та залежності, набагато складніше, ніж поведінку певного тіла в просторі. Однак саме сьогодні розвиток технологій дозволяє перейти на принципово новий рівень досліджень суспільства. Завдяки інформатизації, людство отримує величезні обсяги даних. Новітні методи роботи з ними дозволяють якісно оновити методологію суспільних наук та їх результати.

Одним iз таким методів є агентне моделювання (ABM, agent-based modeling). Ключові положення, що характеризують даний метод, наступні: «агент – автономний обчислюваний об’єкт із певними властивостями та діями; агенте моделювання – вид обчислювального моделювання, де явище моделюється шляхом визначення агентів та їх взаємодії» [1, 1]. Реалізується таке моделювання шляхом використання спеціалізованого програмного забезпечення, яке дозволяє описати властивості агентів та обчислювати результати їх взаємодії. Результат використання такого методу прийнято називати штучним суспільством (artificial society), що визначається як «створена з використанням комп’ютерної техніки симуляційна модель суспільства або групи людей, котра базується на агентах та зазвичай обмежена їх взаємодією в конкретній ситуації»[2].

З використанням програмного забезпечення NetLogo нами було створено модель протидії злочинності. Вихідний код моделі та демонстраційні матеріали, на які посилаємося в подальшому, представлено у вільному доступі[3; 4].

Штучне суспільство, яке створюється під час функціонування розробленої нами моделі, складається з чотирьох типів агентів: «незлочинці», «злочинці», «поліцейські» та «святі». Усі агенти рухаються у випадковому порядку. За один умовний день кожен агент здійснює одне переміщення в довільному напряму на відстань, обмежену параметром «соціальна мобільність».

«Незлочинці» являють собою частину населення, яка не вчиняє злочинів. Дані агенти характеризуються таким параметром, як «правова культура». Цей параметр змінюється залежно від випадкових зустрічей із «злочинцями». Якщо «незлочинець» потрапляє в поле впливу незасудженого «злочинця», рівень його правової культури зменшується, а засудженого «злочинця» – зростає. Збільшення та зменшення «правової культури» «незлочинця» є змінними параметрами моделі та задаються, відповідно, змінними «кримінальна культура» та «страх». У такий спосіб моделюються різнонаправлені впливи на правову культуру з одного боку так званої «кримінальної культури», з іншого – загальної превенції.

Агенти типу «злочинці» можуть бути засудженими або ні. Статус засудженого «злочинець» може отримати, якщо опиниться в полі впливу «поліцейського». Для засудженого «злочинця» встановлюються термін покарання та відбуте покарання. Після «засудження» параметр «відбуте покарання» збільшується на одиницю з кожним циклом моделі. Термін покарання встановлюється випадково в межах параметру «максимальне покарання». Після того, як параметри «відбуте покарання» та «призначене покарання» стануть однаковими, засуджений «злочинець» iз вірогідністю, що дорівнює параметру «корекція», стає «незлочинцем», в іншому випадку – незасудженим «злочинцем».

«Поліцейські» характеризуються параметром «професійність». Даний параметр визначає вірогідність, iз якою незасуджений «злочинець», опинившись у полі впливу «поліцейського», стає засудженим «злочинцем».

«Святі» ніколи не вчиняють злочини; рівень їхньої культури не залежить від «зустрічей» iз незасудженими «злочинцями». Рівень культури «незлочинців», що опиняються в полі впливу «святого», завжди зростає.

Крім названих параметрів, для штучного суспільства, створюваного запропонованою моделлю, встановлюються кількість населення, частки агентів різних видів та поля впливу агентів, початковий рівень культури «незлочинців».

Використовувати модель пропонується для візуалізації та аналізу впливу різних конфігурацій параметрів штучного суспільства на умовний рівень злочинності, який у нашому випадку будемо визначати, як частку «злочинців» від всієї кількості агентів.

Так, якщо встановити однаковий рівень позитивного та негативного впливу засуджених та незасуджених «злочинців», після коливань показник частки злочинців у створеному штучному суспільстві стабілізується на певній позначці. У прикладі, який наводиться в презентації, – 30-35%. Якщо після цього зменшити позитивний вплив засуджених злочинців на третину, отримаємо майже двократне збільшення частки злочинців. У прикладі, що наводиться, система стабілізується на показнику 57-60%. Тепер, якщо в десять разів збільшити максимально можливе покарання, отримаємо стабілізацію із більшою часткою злочинців – близько 70%. Пiдвищення максимального покарання в сто разів приведе до стабілізації системи на ще більшому показникові частки злочинців – близько 85%. Водночас, якщо повернутися до первинних налаштувань штучного суспільства та пiдвищити на третину позитивний вплив засуджених злочинців, отримаємо вдвічі меншу частку злочинців – близько 15%.

Таку поведінку моделі можна пояснити тим, що збільшення покарання приводить до зростання частки агентів, які належать до засуджених «злочинців». Тоді як збільшення позитивного впливу на правову культуру  приводить до зменшення вірогідності перетворення «незлочинців» на «злочинців».

Як і будь-яка модель, запропонована нами є спрощенням. Але навіть на такому рівні складності вона дозволяє підтвердити важливу гіпотезу: посилення покарання є менш ефективним, ніж заходи, не пов’язані з репресією. Тут, звичайно, слід пригадати роботи академіка О. М. Костенка та  його важливі висновки щодо ролі правової культури в протидії злочинності. Водночас, видається, що представлений метод виводить наукову дискусію в даній сфері на якісно новий рівень.

Дослідники отримують можливість формулювати та перевіряти гіпотези у вигляді певних залежностей. Крiм того, повертаючись до кризи реплікації суспільних наук, є можливість перевірки гіпотез шляхом необмеженого повторення експериментів. Можливою є й перевірка правильності моделі та проведення експериментів iз різними конфігураціями параметрів.

Сфера застосування методу агентного моделювання є достатньо широкою. До перспектив використання представленої нами моделі можна віднести дослідження феномену «кримінальної хвилі», встановлення порогових значень параметрів штучного суспільства, при яких здійснюється тотальна криміналізація, побудову гіпотез щодо найбільш ефективного використання суспільних ресурсів для протидії злочинності, вивчення проблем довіри до правоохоронних та судових органів, аналіз впливу щільності населення на рівень злочинності тощо. Зрозуміло й те, що зазначену модель слід розглядати як першу спробу використання методу. Є сенс у розробці складнiших моделей для перевірки більш складних гіпотез.

Головний очікуваний результат використання описаного методу полягає в підвищенні ефективності протидії злочинності. Базовані на результатах обчислювального моделювання рішення щодо державних чи регіональних програм протидії злочинності будуть, сподіваємося, більш раціональними.

  1. Wilensky U., Rand W. (2015). An Introduction to Agent-Based Modeling: Modeling Natural, Social, and Engineered Complex Systems with NetLogo MIT Press. 505 p.
  2. Branke J. Artificial Societies.URLКод доступу:
    Код доступу:https://link.springer.com/referenceworkentry/10.1007%2F978-0-387-30164-8_36.
  3. Посилання для завантаження моделі:
     https://karchevskiy.org/2020/08/02/model-1/.
  4. Посилання для перегляду презентації:
    https://youtu.be/raY4YaftTcM

Модель протидії злочинності

Щоб працювати з моделлю необхідно:

1) завантажити програмне забезпечення NetLogo;

2) відкрити у даному забезпеченні файл, представлений на сайті

Завантажити NetLogo

Завантажити файл моделі

ЩО ЦЕ?

Модель це спрощене представлення про складний феномен, створене для з’ясування закономірностей існування феномену, прогнозування його розвитку. Пропонується модель протидії злочинності заснована на гіпотезі про вплив рівня правової культури на готовність вчиняти злочини.

ЯК ПРАЦЮЄ МОДЕЛЬ

Штучне суспільство, яке створюється під час моделювання складається з чотирьох типів членів:
незлочинці, їх характеризує рівень правової культури; коли рівень стає меншим ніж 0 незлочинець стає злочинцем;
злочинці, їх характеризують такі параметри як засудження, термін покарання та відбуте покарання; коли незлочинець опиняються в зоні впливу незасудженого злочинця, рівень культури незлочинця зменшується; коли незлочинець опиняється в зоні впливу засудженого злочинця рівень культури незлочинця збільшується; після відбуття покарання засуджений злочинець або стає незлочинцем, або незасудженим злочинцем (рецидив);
поліцейські, коли незасуджений злочинець опиняється у зоні впливу поліцейського, такий злочинець з вірогідністю професійності поліцейського набуває статусу засудженого злочинця, йому призначається покарання;
“святі”, ніколи не вчиняють злочини, рівень їх культури не змінюється, коли незлочинець опиняється в зоні впливу “святого” рівень культури незлочинця завжди збільшується.

ЯК ВИКОРИСТОВУВАТИ МОДЕЛЬ

Для того, щоб здійснити моделювання необхідно визначити параметри штучного суспільства, яке буде створено, потім натиснути Setup, потім Go.
Параметри моделі:
 number-of-criminals – частка злочинців
 number-of-saints – частка “святих”
number-of-police – частка поліцейських
 number-of-not-criminals – частка незлочинців
 population – чисельність населення (кількість агентів)
 social-mobility – соціальна мобільність (максимальна відстань, на яку можуть переміщуватися агенти)
 initial-culture – початковий рівень культури незлочинців
 criminals-influence – радіус впливу незасуджених злочинців
 criminal-culture – інтенсивність негативного впливу незасуджених злочинців
sentence-influence – радіус впливу засуджених злочинців
 fear – інтенсивність позитивного впливу засуджених злочинців
 saints-influence – радіус впливу “святих”
 saints+ – інтенсивність позитивного впливу “святих”
 police-influence – радіус впливу поліцейських
 police-prof – професійність поліцейських (вірогідність засудження злочинця, який опинився в зоні впливу поліцейського
 not-corrected – вірогідність рецидиву після відбуття покарання
 max-punishment – максимальний розмір покарання

ЯК МОЖНА ПОЧАТИ ДОСЛІДЖЕННЯ

Спробуйте як буде змінюватися модель при змінах максимального розміру покарання за умов рівного позитивного та негативного впливу на культуру незлочинців

ПОДАЛЬШЕ ВДОСКОНАЛЕННЯ МОДЕЛІ

Розвиток моделі можливий шляхом додавання нових параметрів. Наприклад, довіра населення до поліцейських, рівень корупції, професійність злочинців

(с) Карчевський Микола, 2020

Мережа

Время беспощадно, оно как волчица,
Вот мы сидим здесь, а оно мчится.

Б.Г.

Коло проблем, які я намагаюся досліджувати, представляють собою систему, яку можна візуалізувати у такий спосіб.

Маємо мережу з чотирьох вузлів, де кожен вузол взаємопов’язаний з іншим.

Політика, як результат узгодження різноманітних інтересів членів суспільства, визначає пріоритети розвитку. Право формулює соціально допустимі межі активності. Освіта та наука забезпечують ефективність та потенціал розвитку. Нарешті техніка та технології надають людству нові можливості та створюють нові небезпеки. Названі вузли є частиною значно більшої мережі, тому запропонована модель є певним спрощенням. Однак, вона дозволяє орієнтуватися в результатах досліджень, що представлені на сайті.

Правове регулювання технологій розглядається в контексті забезпечення максимальної користі їх використання та мінімізації ризиків зловживання ними. Одночасно технології забезпечують нові можливості для правового регулювання, йдеться про Big Data, алгоритми оцінки ризиків, комп’ютерну симуляцію складних соціальних процесів…

Освіта та наука забезпечують настільки затребувану сьогодні раціоналізацію суспільно-політичного дискурсу. В умовах тих процесів, що відбуваються в нашій державі, така раціоналізація – єдиний можливий спосіб політичної стабілізації. Політика, освіта, наука функціонують у правовому полі та перебувають під істотним впливом техніки та технологій. Останні, в свою чергу, розвиваються відповідно до пріоритетів, визначених політикою, та на грунті результатів освіти й досягнень науки.

Впевнений, сподіваюсь не тільки я ;), означена конвергенція напрямів дослідження дозволяє отримувати нетривіальні результати. Маю щиру надію на те, що матеріали сайту будуть корисними та запрошую до дискусії.