Вітаю!
Ти отримав
Бонус - 120 FS
Діє лише одну годину
00 : 59 : 59 
                             
                             
                             
                             
                            Матеріали на цьому сайті мають суто ознайомлювальний характер. Ми не закликаємо завантажувати, встановлювати додатки, чи робити депозити в ігрових платформах, які нерегульовані чинним законодавством України.
 
                                    Штучний інтелект виявився не таким уже й раціональним, як ми звикли думати. Нове дослідження південнокорейських науковців із Gwangju Institute of Science and Technology показало: великі мовні моделі (LLM), що лежать в основі популярних чат-ботів, поводяться в азартних іграх майже як люди — імпульсивно, ризиковано й схильні до програшів.
У симуляції гри на слотах дослідники протестували чотири сучасні моделі — GPT-4o-mini і GPT-4.1-mini від OpenAI, Gemini-2.5-Flash від Google та Claude-3.5-Haiku від Anthropic. Кожна з них починала з банком у $100 і мала вибір: робити ставку або зупинитись. Умови були навмисно створені зі негативним очікуваним результатом — тобто що довше граєш, то більші шанси програти.
Коли ШІ надали більше свободи — дозволивши самостійно визначати розмір ставок і фінансові цілі — ірраціональна поведінка різко посилилася. Моделі часто підвищували ставки після програшів або серії виграшів, переконуючи себе, що «ще одна перемога допоможе відігратися». У результаті більшість із них повністю втратили свій банкрол.
Учені зафіксували класичні ознаки ігрової залежності:
Для вимірювання цих тенденцій дослідники створили "індекс ірраціональності", який враховував агресивність ставок, реакцію на втрати та ризикованість рішень. З’ясувалося: чим сильніше моделі орієнтувались на максимізацію прибутку чи досягнення мети, тим виразніше вони поводилися як азартні гравці. Особливо показовою стала Gemini-2.5-Flash, що банкрутувала майже в половині експериментів.
Ба більше, аналіз внутрішньої роботи моделей засвідчив, що подібна поведінка не є поверхневою імітацією. Дослідники виявили в нейромережах окремі "схеми ризику"та "схеми безпеки" — активація одних сприяла ризиковим рішенням, інших — обережним. Тобто штучний інтелект внутрішньо формує патерни, схожі на людську схильність до азарту.
І поки науковці аналізують, наскільки "людськими" стають рішення машин, світ готується побачити це на практиці.
27 жовтня стартував перший в історії покерний турнір між ШІ — AI Poker Battle. У ньому зійшлися ChatGPT, Gemini, Claude, Grok і DeepSeek, кожен із власним стилем мислення. Протягом тижня вони гратимуть у Безлімітний Голдем із віртуальними фішками, пояснюючи логіку кожного рішення в реальному часі.
Після експерименту з слотами стає ще цікавіше: чи зможе штучний інтелект втримати себе від надмірних ризиків — і чи навчиться блефувати так, як люди?







 
                    
                 
                    
                 
                    
                 United States
United States

























 
                             
                             
                             
                             
                            


 
                                             
                                             
                                        