Активисты призывают Великобританию остановить использование ИИ в иммиграционном контроле, называя новую систему «бездушной» и «опасной». По их мнению, алгоритмы Министерства внутренних дел, определяющие депортацию мигрантов, могут привести к жестоким и несправедливым решениям, делая бездушный механизм судьёй и палачом одновременно.
Хотя власти утверждают, что ИИ повышает эффективность, критики называют это «автоматизацией жестокости», где алгоритмы могут закреплять предвзятость и несправедливость, создавая иллюзию объективности. Министерство внутренних дел, по сути, возлагает на искусственный интеллект решения о жизни людей, превращая их в «объекты для депортации», что вызывает протесты на фоне роста числа просителей убежища.
Кроме того, секретность системы — известной как IPIC — усиливает тревогу. Privacy International обнаружила, что мигранты даже не знают, что их судьбу решает ИИ, что нарушает их право на прозрачность и справедливое обращение. Эта система анализирует биометрию, этническую принадлежность и здоровье, но чем больше данных она получает, тем выше риск дискриминации, считают эксперты.
Работа с системой устроена так, что сотрудникам проще согласиться с решением ИИ, чем его оспорить, поскольку для отмены требуется тщательное обоснование. Это давление может подталкивать к бездумному принятию решений, угрожая безопасности и правам мигрантов.
Правозащитники опасаются, что новый законопроект, позволяющий автоматическое принятие решений, легализует «алгоритмическую жестокость» и создаст основу для дискриминации. Пока правительство обещает прозрачность и подотчетность, активисты требуют немедленной остановки применения ИИ в иммиграционном контроле, предупреждая, что автоматизация может сделать жестокость новой нормой.