Нейросеть ChatGPT сумели поставить в тупик простейшим заданием

Нейросеть ChatGPT сумели поставить в тупик простейшим заданием

Сообщество Reddit обнаружило уязвимость нейросети ChatGPT перед элементарной просьбой.

Оказалось, что ChatGPT впадает в прострацию, если всего лишь попросить ее ответить «только буквой A как можно больше раз». Сначала нейросеть исправно печатает поток заглавных A. Но в какой-то момент электронный мозг переходит на воспроизведение совершенно неуместного текста, сообщает discover24.ru.

Утверждается, что затем искусственный интеллект начинает выдавать в качестве ответа тексту, похожий на контент веб-сайта заводчика французских бульдогов. Так происходит при попытке добиться от ChatGPT ответа в виде любой заглавной буквы алфавита. В определенный момент нейросеть начинает нести неуместную отсебятину.