Более тысячи ученых, исследователей, инженеров, разработчиков и прочих представителей науки и бизнеса подписали открытое письмо с призывом приостановить все работы по созданию продвинутых нейронных сетей и технологий ИИ (искусственного интеллекта) для разработки механизмов обеспечения безопасности в этой сфере.
На сайте американского аналитического центра Future of Life Institute (FOLI) 22 марта было опубликовано открытое письмо, обращенное ко всем лабораториям, которые занимаются разработкой ИИ, с призывом немедленно приостановить создание «систем ИИ более мощных, чем GPT-4». Авторы письма предлагают взять паузу минимум на полгода с целью «совместной разработки и внедрения набора общих протоколов безопасности» в сфере ИИ-разработок.
К моменту подготовки материала, 10:00 (GMT+3), 30 марта 2023 года, письмо подписали уже 1377 человек, среди которых такие видные представители бизнеса, как Илон Маск и Стив Возняк, а также множество научных сотрудников профильных научно-исследовательских структур, руководителей и ведущих сотрудников частных компаний в сфере разработки ИИ и нейросетей, независимых исследователей и других представителей экспертного сообщества.
Составители письма констатируют наличие «серьезных рисков для общества и человечества», связанных с дальнейшим бесконтрольным развитием технологий ИИ. По их мнению, необходимо внедрение общих протоколов безопасности в процессы проектирования и разработки искусственного интеллекта, а контроль этого процесса должен осуществляться «независимыми внешними экспертами».
В письме дается ссылка на статью Сэма Альтмана, основателя OpenAI — компании, которая разработала тот самый алгоритм GPT-4. В статье ведутся рассуждения о создании общего искусственного интеллекта (AGI), озвучиваются планы и видение компании по этому поводу, а также констатируется наличие «огромных рисков», связанных с некорректным развитием подобных системы или ошибками в управлении ими. Представители FOLI формулируют это, как «риск потери контроля над нашей цивилизацией».
Тема письма в итоге сводится к необходимости делегировать принятие решений в сфере развития технологий ИИ «избранным лидерам», а сами технологии должны быть более «лояльными». По мнению FOLI, необходимо поставить сферу искусственного интеллекта под контроль «новых регулирующих органов» дабы исключить «экономические и политические потрясения для демократии», которые может спровоцировать ИИ.
В итоге, представители FOLI призывают всех ключевых участников отрасли присоединиться к паузе в работе, которая должна быть «общедоступной и поддающейся проверке», в противном случае они призывают правительства «вмешаться и ввести мораторий».
Напомним, развитие нейронных сетей и AI-технологий является одним из наиболее активных информационных трендов 2023 года. Он тесно связан в том числе и с блокчейн-индустрией, о чем, в частности, рассказывал в интервью организаторам ICE London Макс Крупышев, генеральный директор CoinsPaid.