Более тысячи ученых, исследователей, инженеров, разработчиков и прочих представителей науки и бизнеса подписали открытое письмо с призывом приостановить все работы по созданию продвинутых нейронных сетей и технологий ИИ (искусственного интеллекта) для разработки механизмов обеспечения безопасности в этой сфере. 

Бесконтрольное развитие ИИ угрожает демократии

На сайте американского аналитического центра Future of Life Institute (FOLI) 22 марта было опубликовано открытое письмо, обращенное ко всем лабораториям, которые занимаются разработкой ИИ, с призывом немедленно приостановить создание «систем ИИ более мощных, чем GPT-4». Авторы письма предлагают взять паузу минимум на полгода с целью «совместной разработки и внедрения набора общих протоколов безопасности» в сфере ИИ-разработок. 

К моменту подготовки материала, 10:00 (GMT+3), 30 марта 2023 года, письмо подписали уже 1377 человек, среди которых такие видные представители бизнеса, как Илон Маск и Стив Возняк, а также множество научных сотрудников профильных научно-исследовательских структур, руководителей и ведущих сотрудников частных компаний в сфере разработки ИИ и нейросетей, независимых исследователей и других представителей экспертного сообщества. 

Составители письма констатируют наличие «серьезных рисков для общества и человечества», связанных с дальнейшим бесконтрольным развитием технологий ИИ. По их мнению, необходимо внедрение общих протоколов безопасности в процессы проектирования и разработки искусственного интеллекта, а контроль этого процесса должен осуществляться «независимыми внешними экспертами». 

В письме дается ссылка на статью Сэма Альтмана, основателя OpenAI — компании, которая разработала тот самый алгоритм GPT-4. В статье ведутся рассуждения о создании общего искусственного интеллекта (AGI), озвучиваются планы и видение компании по этому поводу, а также констатируется наличие «огромных рисков», связанных с некорректным развитием подобных системы или ошибками в управлении ими. Представители FOLI формулируют это, как «риск потери контроля над нашей цивилизацией». 

Тема письма в итоге сводится к необходимости делегировать принятие решений в сфере развития технологий ИИ «избранным лидерам», а сами технологии должны быть более «лояльными». По мнению FOLI, необходимо поставить сферу искусственного интеллекта под контроль «новых регулирующих органов» дабы исключить «экономические и политические потрясения для демократии», которые может спровоцировать ИИ. 

В итоге, представители FOLI призывают всех ключевых участников отрасли присоединиться к паузе в работе, которая должна быть «общедоступной и поддающейся проверке», в противном случае они призывают правительства «вмешаться и ввести мораторий». 

Напомним, развитие нейронных сетей и AI-технологий является одним из наиболее активных информационных трендов 2023 года. Он тесно связан в том числе и с блокчейн-индустрией, о чем, в частности, рассказывал в интервью организаторам ICE London Макс Крупышев, генеральный директор CoinsPaid. 

Автор: Евгений Тарасов
#ИИ #Новости