Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта | Новости ДВ2025.рф

Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта

Время чтения:1 Минут, 57 Секунд

Государственный департамент забил тревогу по поводу угрозы «уровня исчезновения», которую ИИ представляет для будущего человечества.

В докладе Gladstone AI содержится призыв к созданию официального органа для срочного регулирования развития ИИ, подчеркивая риски для национальной безопасности и потенциальную возможность уничтожения человечества.

Yournews.com сообщает: В докладе под названием «План действий по повышению безопасности и защищенности передового искусственного интеллекта» , подготовленном консалтинговой фирмой Gladstone AI по заказу Госдепартамента, содержится призыв к усилению государственного надзора за искусственным интеллектом (ИИ), чтобы смягчить «срочные и растущие риски для национальной безопасности» и предотвратить «угрозу вымирания человеческому виду».

 В докладе предлагается создать новое федеральное агентство, которому будет поручено строгое регулирование развития ИИ, включая введение ограничений на вычислительную мощность, используемую системами ИИ, что ограничит технологический прогресс до уровня, близкого к текущим возможностям.

Рекомендации консалтинговой компании стали ответом на неоднозначные результаты, связанные с взаимодействием общественности с технологиями искусственного интеллекта, такими как ChatGPT, который подвергался критике за распространение дезинформации , политическую цензуру и демонстрацию аморального поведения , а также случаи злоупотреблений со стороны отдельных лиц .

Основное внимание в докладе уделяется развитию общего искусственного интеллекта (AGI), определяемого как ИИ, способный превосходить людей в экономически и стратегически значимых областях.

В докладе предупреждается о сценарии «потери контроля», при котором будущий ИИ может превзойти усилия по сдерживанию, сравнивая потенциальное воздействие с воздействием оружия массового уничтожения и предполагая возможность исчезновения человечества.

Повторяя опасения, высказанные генеральным директором OpenAI Сэмом Альтманом и другими в публичном заявлении о рисках ИИ , в отчете подчеркивается необходимость глобального приоритета в снижении рисков исчезновения ИИ, сравнимых с пандемиями и ядерной войной. 

Альтман подчеркнул проблему приостановки исследований в области ИИ из-за международной конкуренции, особо отметив, что прекращение исследований в США не приведет к остановке в Китае. Он выступал за разработку стандартов предосторожности, которые могли бы быть приняты во всем мире в соответствии с рекомендациями отчета.

Предлагаемое федеральное агентство будет обеспечивать соблюдение строгих правил исследований ИИ, включая ограничения на вычислительную мощность и криминализацию несанкционированного распространения кода ИИ. Авторы отчета утверждают, что без таких мер конкурентное стремление к развитию ОИИ может привести к безрассудному прогрессу со стороны «передовых» компаний, которые будут ставить скорость выше безопасности и защищенности. Этот нормативный подход направлен на замедление разработки программного обеспечения, чтобы предотвратить преждевременное появление AGI из существующих или будущих технологий.

Однако в отчете признается ограниченность таких правил, отмечая вероятность того, что исследователи ИИ переедут в менее ограничительные юрисдикции для продолжения своей работы, подчеркивая сложность управления развитием ИИ в глобальном контексте.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Предыдущая статья «Кёрлинг-ДТП» во Владивостоке собрало 4 авто, но не в одного автобота — фото
Следующая статья Ступор командира. Почему разбился «Боинг» в аэропорту Ростова?