Стивен Адлер, бывший исследователь OpenAI, выражает обеспокоенность по поводу быстрых темпов развития искусственного интеллекта и возможных угроз, которые он может нести для человечества.
Источник картинки: pxhere
Стивен Адлер, покинувший OpenAI в ноябре 2024 года, предупреждает о рисках, связанных с созданием общего ИИ (AGI). Он считает, что ускоренное развитие таких технологий может привести к катастрофическим последствиям, поскольку никто еще не разработал решений, обеспечивающих их безопасность, сообщает MK.RU.
Хотя в индустрии существуют разные мнения, многие эксперты, включая Адлера, отмечают, что быстрый прогресс в области ИИ ставит под угрозу будущее человечества. В то время как одни считают, что ИИ может решить глобальные проблемы, другие предупреждают, что системы могут выйти из-под контроля.
По мнению Адлера, для предотвращения возможных угроз необходимы строгие меры регулирования и безопасности.
Ранее ГлавСовет сообщал, что в Арктике начались масштабные учения МЧС России. Спасатели отрабатывают ликвидацию чрезвычайных ситуаций в суровых условиях Севера.