
Внедрение нейросетей в повседневную жизнь диктует жёсткие требования к безопасности данных. Некоторую информацию нельзя доверять алгоритмам без ограничений, потому что её утечка грозит серьёзным ущербом, предупредил эксперт в области искусственного интеллекта Ярослав Селивёрстов. В первую очередь речь идёт о медицинских сведениях.
Ошибка ИИ может фатально повлиять на лечение и социальный статус человека. Отдельный риск несёт биометрия (слепки голоса, сканы лица, отпечатки пальцев): при утечке эти идентификаторы невозможно будет заменить. Кроме того, нельзя давать нейросетям доступ к цифровому следу детей — фотографиям, геолокации, информации о развитии, поскольку ребёнок не способен дать осознанное согласие на обработку таких данных.
Эксперт также посоветовал изолировать от алгоритмов финансовые реквизиты, внутренние служебные документы, ключи доступа, судебные материалы и личную переписку. Передача этой информации открывает прямой путь к промышленному шпионажу, мошенничеству и манипуляциям. Не следует доверять ИИ и сведениям, связанным с критической инфраструктурой, а также новыми разработками.
«Базовый принцип цифровой гигиены новой реальности предельно прост: чем выше цена ошибки и сложнее последствия утечки, тем меньше оснований передавать информацию ИИ», — заключил собеседник .
Комментарии