Эксперты подчеркивают возможные риски сохранения информации чат-ботами.
Источник картинки: Скриншот с сайта YouTube.com
Специалисты по кибербезопасности настоятельно рекомендуют не передавать информацию чат-ботам, даже если она кажется невинной. Чат-боты, вроде ChatGPT от OpenAI, созданы для облегчения повседневной жизни пользователей. Они способны отвечать на сложные вопросы и выполнять задания почти так же, как человек. Возможно, иногда возникает искушение рассказать что-то о себе, включая свое имя, но это следует избегать любой ценой. Об этом сообщает The Sun, а мы приводим для вас пересказ статьи.
Никакие пароли, номера паспортов, банковские данные, адреса, телефоны или имена не должны попадать в чаты с искусственным интеллектом. Вместо этого можно заменить их символами или фразой «отредактировано». Информация, передаваемая чат-боту, не всегда остается конфиденциальной.
Например, ChatGPT сохраняет диалоги для последующего использования в устранении проблем или обучения новых версий. Модераторы могут просматривать разговоры, а данные могут использоваться для обучения других версий GPT или альтернатив. Существует риск утечки информации из-за ошибок или непреднамеренного раскрытия данных.
«Не передавайте личные данные чат-ботам. Все, что вы пишете чат-боту, может быть использовано против вас», — отмечает Стэн Камински из Kaspersky.
Рекомендуется избегать загрузки документов в чат-боты. На практике это может помочь выполнить задачу, но одновременно с этим опасно из-за риска утечки конфиденциальных данных или коммерческой информации. Лучше всего сохранять разговоры с чат-ботами как можно более анонимными.