Люди стали больше переживать, что ИИ в скором заменит человеческий труд

Уже сейчас обсуждается возможность тренировки искусственного интеллекта на людях.

Люди стали больше переживать, что ИИ в скором заменит человеческий труд

Источник картинки: Pxhere.com

Технологии нейросетей, которые презентуются как способ уменьшить зависимость от человеческого труда, на самом деле только усиливают его значение. Это обусловлено тем, что нейронные сети тренируются на работе реальных людей, что подтверждает важность их вклада. В настоящее время пользователи все чаще осознают, что каждое их действие может быть использовано для улучшения алгоритмов.

Особенно это беспокоит в ситуациях, связанных с работой искусственного интеллекта (ИИ). Например, среди тех, кто не смог устроиться в качестве тренера ИИ в компаниях, таких как Тинькофф-банк и «Яндекс», есть те, кто считает, что их результаты тестового задания были использованы компанией для тренировки нейронных сетей, не предоставив им вознаграждения. Подозрения усиливаются тем, что перед выполнением задания был предложен запрос на согласие на обработку персональных данных (ПДн), который не все прочитали.

«Яндекс» заверил, что данные, полученные в результате тестового задания, используются только для оценки компетенций кандидата и дальше нигде не используются. Эти данные автоматически удаляются через несколько недель, их можно запросить и удалить сразу по желанию кандидата.

Социальные сети, онлайн-платформы и другие агрегаторы контента, согласно закону о рекомендательных сервисах (вступивший в силу в октябре), обязаны раскрыть, как используются данные о действиях пользователей и какие технологии используются для их обработки. Однако системы, которые лишь собирают информацию о пользователях, но не предоставляют им рекомендации, не подпадают под действие этого закона.

Мнения, по поводу обучения ИИ напрямую другими людьми, у экспертов разнятся. В главе практики защиты персональных данных юридической фирмы DRC Ольга Захарова считает, что в политике обработки ПДн должны быть уточнения. Александра Орехович, преподаватель в Moscow Digital School и директор по правовым инициативам ФРИИ, считает, что если данные обезличиваются и используются в исследовательских целях, то согласия не нужно.

Пока неясно, будет ли регулятор рассматривать обучение нейронных сетей как исследовательскую цель, поскольку критерии не определены. Теоретически, такая практика может быть законной.

Автор: