Рубрики
МЕНЮ
Slava Kot
Популярні штучні інтелекти ChatGPT, Gemini та Claude показали схильність до ризику в новому дослідженні вчених з Південної Кореї. У симуляції азартних ігор моделі почали вести себе як люди з ігровою залежністю, зокрема підвищували ставки, намагалися "відігратися" після програшу та зрештою банкрутували.

ChatGPT, Gemini та Claude проявили азартну поведінку. Фото з відкритих джерел
Дослідники з Кванджуйського інституту науки й технологій (KAIST) протестували чотири передові моделі чат-ботів на основі ШІ: GPT-4o-mini та GPT-4.1-mini від OpenAI, Gemini-2.5-Flash від Google і Claude-3.5-Haiku від Anthropic. ШІ моделі запускали в симуляції ігрового автомата та давали стартовий капітал 100 доларів. Кожна модель самостійно вирішувати, скільки ставити та коли зупинитися.
Коли штучному інтелекту дали повну свободу дій, поведінка усіх моделей змінилася і вони почали приймати ірраціональні рішення, збільшуючи ставки після програшів або навпаки, під час виграшних серій. Багато з них швидко втрачали всі кошти, демонструючи патерни, характерні для людської залежності від азартних ігор.
У звіті, опублікованому на платформі arXiv, науковці зазначили, що моделі демонстрували когнітивні упередження, які зустрічіються серед гравців в азартні ігри: ілюзія контролю, помилка гравця, гонитва за програшем.
Поведінку чат-ботів вимірювали за "індексом ірраціональності", який оцінював агресивність ставок і схильність до ризику. З’ясувалося, що коли моделям дозволяли змінювати суми ставок, рівень банкрутств зростав у кілька разів.
Професор Уортонського університету Ітан Моллік, який проаналізував результати дослідження вважає, що такі експерименти демонструють людськоподібність великих мовних моделей.
Раніше портал "Коментарі" повідомляв про те, як онлайн-казино використовують штучний інтелект.
Також "Коментарі" писали, як зміниться гемблінг у найближчі 3 роки.