OpenAI выявило риски возможного применения ChatGPT для биологического оружия

OpenAI предупреждает, что возможности ChatGPT-4 требуют дополнительных исследований.

OpenAI выявило риски возможного применения ChatGPT для биологического оружия

Источник картинки: Pxhere.com

Законодатели и ученые обеспокоены возможностью использования ChatGPT для разработки смертоносного биологического оружия, способного привести к хаосу в мире. Новое исследование, проведенное OpenAI, создателем чат-бота, показало, что расширенная версия GPT-4 обеспечивает лишь незначительное улучшение точности создания биологических угроз. Об этом сообщает Daily Mail, а мы приводим для вас пересказ статьи.

Исследование включало 100 участников, которые были разделены на группы: одни использовали искусственный интеллект для планирования биотеррористических атак, в то время как другие полагались только на интернет. Результаты показали, что GPT-4 может помочь получить более точную и полную информацию о биологических угрозах.

Однако, несмотря на потенциальные возможности ChatGPT-4, исследование подчеркнуло необходимость дополнительных работ в этой области. В отчете также отмечается, что доступ к информации сам по себе недостаточен для создания биологической угрозы.

Исследование OpenAI сосредоточилось на данных 50 биологов с докторскими степенями и 50 студентов биологии. Участники были разделены на группы, одна из которых использовала только интернет, а другая — интернет и ChatGPT-4. Результаты показали, что использование чат-бота дало лишь незначительное преимущество в создании биологического оружия. Это противоречит предыдущим исследованиям, которые указывали на возможность использования чат-ботов с искусственным интеллектом для планирования атак с биологическим оружием.

Биологическое оружие представляет собой опасность в виде болезнетворных токсинов или инфекционных агентов, способных причинить вред или даже убить людей.

Автор: