Большому брату разрешили иногда следить за тобой. В ЕС одобрили закон об искусственном интеллекте

Европарламент одобрил закон, регулирующий использование искусственного интеллекта, – первый в мире такой всеобъемлющий документ. Нейросети разрешили применять для слежения за людьми в реальном времени, однако с определенными условиями и не на постоянной основе. В Беларуси никаких ограничений в этом деле нет.

Снимок имеет иллюстративный характер. Камеры наблюдения возле Октябрьской площади. Минск, Беларусь. 19 августа 2022 года. Фото: Белсат

Закон поддержали 523 депутата Европарламента, 46 были против, 49 воздержались. В заявлении института отмечается, что документ стимулирует инновации и одновременно направлен на «защиту главных прав, демократии, верховенства закона, на утверждение Европы в качестве лидера в этой области».

Нормативный акт запрещает:

  • нецелевой сбор изображений лиц в интернете или из записей камер наблюдения для базы данных распознавания лица;
  • распознавание эмоций на рабочем месте и в учебных заведениях;
  • нейросети, манипулирующие поведением людей или использующие их уязвимые места;
  • применение генеративных моделей правоохранительными органами только для создания профиля человека или оценки его характера.

Законодатели также запретили правоохранителям пользоваться биометрическими системами идентификации за исключением некоторых случаев. Слежение в режиме реального времени возможно только с разрешения суда, только ограниченный срок и только в определенной локализации. Эта технология будет подходить при поиске пропавшего человека либо для предотвращения теракта.

В Беларуси же за гражданами следят круглосуточно и без каких-либо ограничений: так называемая республиканская система мониторинга общественной безопасности позволяет в онлайн-режиме идентифицировать людей и транспортные средства. 3 марта заместитель главы МВД Геннадий Казакевич хвастался, что к этой системе подключены уже 35 000 камер наблюдения, и их количество будет увеличиваться.

Этот мониторинг создан на основе системы слежения Kipod, которую разработала частная компания Synesis. Этот инструмент позволяет распознавать лица и за секунды находить человека согласно заранее скачанному фото. А в базу могли залить паспортные фотографии всех беларусов – технология это позволяет. Kipod помогает силовикам проводить политические репрессии, из-за чего ЕС наложил санкции на компанию Synesis и ее владельца Александра Шатрова.

Разработчики рассказали, как работает система слежения Kipod, используемая беларусскими силовиками

Упомянули в документе и так называемые системы повышенного риска. Речь идет об использовании искусственного интеллекта в критической инфраструктуре, образовании, занятости, медицине, банковской области, миграции и пограничном контроле, правосудии. Здесь все должно быть под присмотром человека.

Дипфейки – созданные с помощью нейросетей фото-, видео- и аудиоматериалы на основе изображений и голоса реальных людей –должны быть помечены таким образом, чтобы было понятно, что это подделка.

Ожидается, что окончательное одобрение закона – на политическом и техническом уровне – состоится в мае. Полностью документ вступит в силу в 2027 году.

Снимок имеет иллюстративный характер. Фото: Freepik

Этот нормативный акт «будет влиять почти на все сферы жизни людей и на многие индустрии«, отметил в комментарии «Белсату» юрист, основатель сообщества разработчиков игр Belgamedev Ярослав Кот.

«Наибольшая проблема – ответственность. И один из главных принципов, что заложен в акте, – за применение искусственного интеллекта ответствен человек, человек не может перекладывать ответственность на генеративные модели. Работу нейросетей и результат этой работы должны контролировать люди, чтобы минимизировать риски», – говорит специалист.

Фактически документ определяет, что разработками в этой области и созданными инструментами должны заниматься профессионалы – так же, как манипуляции со скальпелем поручают только образованным хирургам. Искусственный интеллект, кстати, может быть и полезным, и вредным – как тот же скальпель, которым можно и излечить, и убить.

В той же медицине генеративные модели также запретили: если нейросеть ошибется, кто будет отвечать за жизнь человека?

«Искусственный интеллект не сможет делать хирургические операции, какие-то медицинские процедуры, в этой области запрещено перекладывать ответственность на нейросети», – подчеркнул Ярослав Кот.

«Будет понемногу учиться». IT-специалист призвал разговаривать с нейросетями на беларусском языке

Еще одно облегчение получит гомо сапиенс при поиске работы. Во многих крупных компаниях предварительную фильтрацию резюме соискателей осуществляют нейросети, говорит собеседник «Белсата». Теперь кадровикам придется изучать анкеты своими глазами: «Сейчас имеются инструменты, которые изучают и отбирают резюме от кандидатов на работу. Многочисленные резюме, где, например, отсутствовали или присутствовали какие-то определенные слова, даже не рассматривались и оставались без ответа. Эту практику закон также запретил».

Также отдельные требования прописали для программистов. «Их обязали давать для регистрации свой софт, документацию, чтобы получить сертификацию. Все инструменты должны быть зарегистрированы в ЕС в специальной базе», – объяснил юрист, отметив, что компаниям за нарушения будут грозить многомиллионные штрафы.

«Все, что будет вырабатывать искусственный интеллект, будет регистрироваться и мониториться, чтобы можно было посмотреть, где что сделано», – назвал специалист еще одну норму одобренного документа.

Конечный результат акт получит, если законодательство стран ЕС будет к нему адаптировано. «Наказания за нарушения должны быть реализованы на национальном уровне», – подытожил Ярослав Кот.

Нейросети выходят из-под контроля?

Степан Кубик / ВВ belsat.eu

Падпісвайся на telegram Белсату

Новости