Микола Карчевський, 8.11.2025
Уявіть собі технологію, яка може “почути” те, що ви промовляєте в думках. Це вже не фантастика – це BCI-системи (Brain-Computer Interface)
Коли Ви уявляєте, що щось говорите (навіть не ворушачи губами), ваш мозок генерує специфічні електричні сигнали. BCI-системи зчитують ці сигнали, а штучний інтелект намагається “декодувати” ваші думки в слова.
🤔Спочатку ці технології розроблялися для людей з розладами мовлення. Розвиток таких технологій вимагає мислити про нові ризики.
❗️Право не свідчити проти себе може втратити сенс, коли думки можна буде “витягнути” без вашої згоди.
❗️Право на приватність порушується в найглибший спосіб – доступ до думок.
❗️Під загрозою сама ідея свободи думок.
Докладніше у статті
John, Angel Mary, M. U. Aiswarya, and Jerrin Thomas Panachakel. “Ethical challenges of using artificial intelligence in judiciary.” 2023 IEEE International Conference on Metrology for eXtended Reality, Artificial Intelligence and Neural Engineering (MetroXRAINE). IEEE, 2023.
https://arxiv.org/abs/2504.19284
Коментар: Нові технології неминуче створюють нові ризики. Реальну небезпеку BCI-систем для кримінальної юстиції можна буде оцінити після більш повного розуміння рівня розвитку технології, перспектив її вдосконалення та масштабування подібних рішень. Поки що це скоріше історія-попередження про необхідність передбачати етичні виклики технологічного виміру правосуддя, аніж про конкретну загрозу тут і зараз. Але саме зараз – найкращий час для суспільної дискусії про межі допустимого, поки технологія ще не стала повсякденною реальністю судових процесів.
