Инициатива уже собрала более 200 подписей от лидеров отрасли, политиков и лауреатов Нобелевской премии.
Кажется, все признают, что искусственный интеллект развивается с молниеносной скоростью и способен принести и пользу, и вред, особенно если работать без четких ограничений. Но кроме отдельных инициатив вроде регулирования ЕС, мир пока не может прийти к единому мнению о правилах. Вместо жестких рамок эксперты предложили иной подход: давайте определим крайние случаи — то, что все считают недопустимым, и договоримся хотя бы об этом.
В понедельник группа политиков, ученых и академиков представила в Генеральной Ассамблее ООН «Глобальный призыв к красным линиям ИИ». Идея звучит так: объединить правительства и согласовать общие границы, чтобы предотвратить критические риски, появляющиеся при внедрении ИИ. Цель — достичь договоренности к концу 2026 года.
Инициатива уже собрала более 200 подписей от лидеров отрасли, политиков и лауреатов Нобелевской премии. Среди сторонников — бывшие президенты Мэри Робинсон (Ирландия) и Хуан Мануэль Сантос (Колумбия), а также Джеффри Хинтон и Йошуа Бенхио, которых называют «крестными отцами ИИ» за фундаментальные работы в нейросетях.
Что же подразумевают «красные линии»?
Пока это оставлено на усмотрение стран. В документе нет конкретных директив, лишь примеры: запрет на запуск ядерного оружия ИИ или использование ИИ для тотального слежения. Другой вариант — ограничение разработки систем, которые невозможно остановить вмешательством человека. Главное послание: эти примеры не обязательны, государства могут формулировать свои правила.
Эксперты предлагают строить любое соглашение на трех столпах:
- Первый — четкий перечень запретов.
- Второй — надежные, проверяемые механизмы контроля.
- Третий — независимый орган, следящий за соблюдением норм
Все детали должны обсуждаться и согласовываться на международных саммитах и рабочих группах, где неизбежно столкнутся интересы разных стран и корпораций.
Пример из США демонстрирует сложность практической реализации. При администрации Байдена Белый дом пообещал не допускать использования ИИ для управления ядерным оружием. Однако в некоторых разведывательных кругах, сформированных при администрации Трампа, остается недовольство ограничениями, налагаемыми технологическими компаниями, которые не предоставляют доступ к ИИ для внутренних задач. На данный момент остается неясным, поддержит ли Америка предлагаемые международные ограничения.
