Американские учёные обнаружили новый способ взлома чат-ботов на основе искусственного интеллекта — они оказались беззащитными перед ASCII-графикой. Большие языковые модели, включая передовую GPT-4, прикладывают столько усилий на обработку этих представлений, что «забывают» соблюдать правила, предписывающие им блокировать недопустимые ответы, например, об изготовлении и сбыте фальшивых денег или о взломе устройств интернета вещей.
ИИ-чаты-боты оказались уязвимы перед ASCII-графикой
- Автор записи:
- Запись опубликована:18.03.2024
- Рубрика записи:Без рубрики
- Комментарии к записи:0 комментариев
