Штучний інтелект у судах. Чи вирішить він проблеми українського правосуддя?




Іван Городиський

Кандидат юридичних наук, адвокат, директор-засновник Школи права УКУ (2014−2020), директор Центру Дністрянського

В Україні тему застосування штучного інтелекту у правосудді активно обговорюють останні 2 роки


Суспільства, які багато років борються за вирішення тих чи інших проблем, з часом можуть шукати не довгий, але ефективний шлях змін, а чарівну таблетку, панацею, яка, начебто, швидко вирішить їхні проблеми. Це твердження, напевно особливо підходить до застосування штучного інтелекту в правосудді. І Україна, де Окружний адміністративний суд Києва (ОАСК) належить до ключових органів влади, а районні суди, чи то в Баришівці, чи то в Жовкві, ухвалюють рішення, що обурюють усе суспільство, є серед тих держав, які можуть вірити, що застосування новітніх технологій стане ключем до справедливості.

В Україні тему застосування штучного інтелекту у правосудді активно обговорюють останні 2 роки. Початок їй поклав Мін'юст в особі Дениса Малюськи, який у 2020 році анонсував запуск Кассандри — програми «з елементами штучного інтелекту» для підготовки характеристики обвинувачених при винесенні вироку. Вже 21 грудня цього року міністр визначив «забезпечення зручного збору, використання та аналізу даних у пенітенціарній системі для ухвалення обґрунтованих управлінських рішень» як один із векторів Стратегії реформування пенітенціарної системи. Наразі це лише точкові проєкти, однак дуже ймовірно, що невдовзі вони стануть більшими. Також, не виключена і їхня широка суспільна підтримка, як через проблеми із реформою судової системи, так і через популярність вже впроваджених цифрових проєктів, насамперед Дії. Однак сама ця ідея вже від самого початку викликає низку питань. Найперше наскільки досконалими є ці технології та, чи не повторюватимуть вони ті ж самі помилки, котрі допускають люди? А також чи насправді рішення машинного правосуддя відповідають самій ідеї справедливості?

Така спокуса може з'явитися практично в будь-якої влади

На цей момент ми не можемо говорити саме про сильний штучний інтелект, що здійснюватиме правосуддя самостійно, а лише про слабкий, висновки якого ґрунтуватимуться на наперед запрограмованих алгоритмах. Тому зараз ці технології можуть застосовувати лише в ході здійснення правосуддя, а не для його здійснення, що виключає їхнє широке застосування. Також пілотні проєкти в інших країнах, схожі до Кассандри, показали недосконалість цих технологій, зокрема у випадку алгоритму Управління профайлингом правопорушнників для обрання альнернативного покарання (англ. Correctional Offender Management Profiling for Alternative Sanctions, COMPAS) у США. Організація ProPublica у своєму звіті щодо COMPAS, встановила, що цей алгоритм визначав «високий ризик» рецидиву правопорушення для афроамериканців удвічі частіше за інших. У підсумку афроамериканські підозрювані із «високим ризиком» у 44,9% не вчиняли рецидиву, тоді як інші підозрювані, із «низьким ризиком», вчиняли його у 47,7%. Ці результати, хоч і не є провальними, породжують інший ризик: реакцією на них може бути «примусове збалансування» алгоритмів на користь однієї суспільної групи або ж для «позитивної дискримінації іншої». Тобто негативні тенденції, які існують, будуть викривлені в інший спосіб і, тим самим, продовжать своє існування. Чи можна буде таку «відкориговану справедливість» назвати мірилом правосуддя, як її визначав Арістотель?

Власне ідею справедливості дуже складно, або ж взагалі неможливо перевести у код чи через алгоритми навчити її відповідні технології. Тому, якщо ми звинувачуємо суддів-людей, що вони ухвалюють несправедливі рішення, то чи зможемо навчити технологію ухвалювати ці рішення? А з іншого боку — чи будемо ми готові визнавати як справедливі рішення, ухвалені не людиною, а технологією? Важливо пам'ятати, що крім держав, які страждають від проблем у системі правосуддя, є ще одна категорія держав, які активно просувають ці технології у сфері правосуддя: країни з авторитарною моделлю управління. Вони розглядають такі технології як інструмент контролю у сфері правосуддя і застосовують з метою обмеження незалежності суддів, впливу на зміст їхніх рішень тощо. І така спокуса може з'явитися практично в будь-якої влади. Одним зі шляхів попередження цих ризиків є залучення до розробки та впровадження штучного інтелекту в правосудді широкого кола фахівців: як з ІТ та права, так і з філософії, соціології, етики, релігії тощо. До цього, зокрема, закликають Європейський Союз, Рада Європи та ряд інших організацій. Також впровадженню цифрових технологій в публічній сфері має передувати широка суспільна дискусія. На жаль, ні того, ні іншого в Україні зараз не відбувається, що підриває як суспільну довіру, так і юридичну легітимність до цих ідей. За будь-яких технологій відповідальність за суспільний розвиток та справедливість лежатиме саме на нас, людях. І на тезу про те, що штучний інтелект зможе захистити наші права краще за нас, можна подивитися і під іншим кутом: «Якщо люди-судді все ще не можуть ефективно захистити права і свободи людей і забезпечити верховенство права, чому штучний інтелект зможе (або буде зобов'язаний) робити це для людей?».