Ученые и политики 150 стран установят границы допустимого для ИИ

от admin

Инициатива уже собрала более 200 подписей от лидеров отрасли, политиков и лауреатов Нобелевской премии.

Кажется, все признают, что искусственный интеллект развивается с молниеносной скоростью и способен принести и пользу, и вред, особенно если работать без четких ограничений. Но кроме отдельных инициатив вроде регулирования ЕС, мир пока не может прийти к единому мнению о правилах. Вместо жестких рамок эксперты предложили иной подход: давайте определим крайние случаи — то, что все считают недопустимым, и договоримся хотя бы об этом.

В понедельник группа политиков, ученых и академиков представила в Генеральной Ассамблее ООН «Глобальный призыв к красным линиям ИИ». Идея звучит так: объединить правительства и согласовать общие границы, чтобы предотвратить критические риски, появляющиеся при внедрении ИИ. Цель — достичь договоренности к концу 2026 года.

Инициатива уже собрала более 200 подписей от лидеров отрасли, политиков и лауреатов Нобелевской премии. Среди сторонников — бывшие президенты Мэри Робинсон (Ирландия) и Хуан Мануэль Сантос (Колумбия), а также Джеффри Хинтон и Йошуа Бенхио, которых называют «крестными отцами ИИ» за фундаментальные работы в нейросетях.

Читать:
Ботаники оказались неправы: как зарождается жизнь на островах

Что же подразумевают «красные линии»?

Пока это оставлено на усмотрение стран. В документе нет конкретных директив, лишь примеры: запрет на запуск ядерного оружия ИИ или использование ИИ для тотального слежения. Другой вариант — ограничение разработки систем, которые невозможно остановить вмешательством человека. Главное послание: эти примеры не обязательны, государства могут формулировать свои правила.

Эксперты предлагают строить любое соглашение на трех столпах:

  1. Первый — четкий перечень запретов.
  2. Второй — надежные, проверяемые механизмы контроля.
  3. Третий — независимый орган, следящий за соблюдением норм

Все детали должны обсуждаться и согласовываться на международных саммитах и рабочих группах, где неизбежно столкнутся интересы разных стран и корпораций.

Пример из США демонстрирует сложность практической реализации. При администрации Байдена Белый дом пообещал не допускать использования ИИ для управления ядерным оружием. Однако в некоторых разведывательных кругах, сформированных при администрации Трампа, остается недовольство ограничениями, налагаемыми технологическими компаниями, которые не предоставляют доступ к ИИ для внутренних задач. На данный момент остается неясным, поддержит ли Америка предлагаемые международные ограничения.

Вам также может понравиться