Микола Карчевський, 23.11.2025
✍️Giuseppe Primiero у статті “Justice at the Core of a New AI Paradigm” для Harvard Data Science Review пропонує подивитися на штучний інтелект з нового ракурсу. Ми більше не живемо у небезпечному світі, де головне – уникнути технічних збоїв. Ми живемо у несправедливому світі, де алгоритми можуть відтворювати й підсилювати соціальні нерівності.
🌍 Перехід від «safety-critical» → до «justice-critical»
Традиційно технології оцінювали за критерієм безпеки: чи працює коректно, чи відповідає результат технічним характеристикам.
ШІ потребує іншої оцінки. Тепер ключове питання не: “Чи безпечний ШІ?”. Значно важливіше: 👉 “Чи справедливий ШІ?”
Primiero наголошує: ML-системи не просто аналізують дані – вони спадкують соціальні нерівності. У результаті виникає:
📍algorithmic inequality – алгоритми відтворюють соціальну нерівність і роблять її “автоматизованою”;
📍technological injustice – коли технологія працює “правильно”, але несправедливо, системно шкодить соціальним групам;
📍epistemic injustice – виключення людей з процесу формування знання про них, алгоритм «знає про людину більше, ніж вона дозволяє».
Алгоритм може працювати правильно технічно, але соціально – неправильно.
🛠 Як цього уникнути? “Affirmative action for technology design”, “care-based AI”
Автор пропонує змінити сам підхід до створення ШІ. Недостатньо “не дискримінувати”.
Треба створювати технології, які виправляють нерівність (affirmative action у дизайні технологій).
Етика турботи у ШІ (care-based AI). Технології – не нейтральні. Вони завжди вбудовані у соціальний контекст і формують його. Системи мають враховувати наслідки для реальних людей, не лише виявляти упередження, а й виправляти їх
Primiero пропонує концепцію: 📍 corrective abduction – здатність системи не просто фіксувати несправедливість, а шукати найкраще пояснення й генерувати корективи.
Повний текст статті: https://hdsr.mitpress.mit.edu/pub/ehs9dr1l/release/1?readingCollection=4a1a4763
👉 Коментар: Стаття Giuseppe Primiero є відповіддю на роботу Sabina Leonelli про Environmental Intelligence. Згадували цю роботу минулого тижня. Вона продовжує спроби зміни системи координат для оцінки соціальних наслідків ШІ. Дискримінація у соціальних застосунках ШІ очевидна. Дослідники пропонують не мінімізувати наслідки роботи алгоритмів, а визначати інакше задачу створення ШІ.
За логікою наступний крок – зміна регуляцій у бік більших вимог для попередження несправедливого використання. Водночас, в Європі спостерігається інший тренд: Європейською Комісією оголошено пропозиції “Digital Omnibus” які, містить послаблення ключових норм GDPR (Загального регламенту про захист даних) та AI Act (Закону про штучний інтелект). Ключова причина таких змін – бізнес інтереси.
Це підводить до ширшого питання: чи можуть співіснувати капітал і справедливість у сфері ШІ?
Бізнес рухає швидкість, конкуренція та постійне масштабування. Суспільство потребує іншого: прозорості, відповідальності та контролю за наслідками. Ця дискусія має тривалу історію. Буде цікаво як ШІ змінить/не змінить її.
