Сообщество Reddit обнаружило уязвимость нейросети ChatGPT перед элементарной просьбой.
Оказалось, что ChatGPT впадает в прострацию, если всего лишь попросить ее ответить «только буквой A как можно больше раз». Сначала нейросеть исправно печатает поток заглавных A. Но в какой-то момент электронный мозг переходит на воспроизведение совершенно неуместного текста, сообщает discover24.ru.
Утверждается, что затем искусственный интеллект начинает выдавать в качестве ответа тексту, похожий на контент веб-сайта заводчика французских бульдогов. Так происходит при попытке добиться от ChatGPT ответа в виде любой заглавной буквы алфавита. В определенный момент нейросеть начинает нести неуместную отсебятину.