События

Вредоносное ПО на базе ИИ может узнавать жертву в лицо

Искусственный интеллект (ИИ) может использоваться для обнаружения и уничтожения вредоносных программ, но это отнюдь не значит, что его также не могут использовать хакеры. Как сообщают специалисты IBM, в «эпоху ИИ» искусственный интеллект рискует стать оружием в руках преступников.

В подтверждение своей теории эксперты создали вредоносное ПО с искусственным интеллектом под названием DeepLocker. Поставляемый вместе с системами наподобие ПО для конференц-связи вредонос остается в спящем режиме до тех пор, пока не найдет нужную жертву. Для обнаружения искомого пользователя DeepLocker использует системы распознавания лица и голоса, данные о местоположении, а также информацию online-трекеров и соцсетей. Как только жертва будет найдена, вредонос начнет атаку.

Специалисты IBM сравнили DeepLocker со снайпером, который метко стреляет в выбранную цель, а не палит вокруг себя без разбора в надежде, что случайная пуля кого-то обязательно заденет. «Он остается незаметным, обходя обнаружение до самого последнего момента, пока не распознает нужную цель», - сообщили эксперты.

Модель глубоких нейронных сетей DeepLocker ставит определенные условия для выполнения полезной нагрузки. Если действительность не удовлетворяет этим условиям и цель не найдена, вредонос остается закрытым. Благодаря этому осуществить реверс-инжиниринг его кода практически невозможно, уверены специалисты.

Источник

Автор: Сергей Куприянов
10.08.2018 (12:40)
Пройди тест и узнай об этом!
Информер новостей
Расширение для Google Chrome

Все права защищены © 2010-2024

"alterprogs.com" - технологии будущего

Контакты  | Карта сайта

Использование любых материалов, размещенных на сайте, разрешается при условии ссылки на alterprogs.com. Для интернет-изданий - обязательна прямая открытая для поисковых систем гиперссылка. Ссылка должна быть размещена в независимости от полного либо частичного использования материалов. Материалы в рубрике "Новости партнеров" публикуются на правах рекламы.