
Gry online to nie tylko rozrywka, ale też pole do popisu dla oszustów. Czy sztuczna inteligencja stanie się nową bronią w ich arsenale, pozwalając na potajemne wygrywanie starć w sieciowych strzelaninach? Czterech studentów Politechniki Krakowskiej wzięło to pod lupę, tworząc własnego bota opartego na AI do Counter-Strike 2. Wyniki ich eksperymentów są niczym zimny prysznic dla branży gamingowej.
Czy można zaprogramować AI w taki sposób, by niezauważenie pokonywała żywych graczy w jednej z najpopularniejszych strzelanek świata? Czterech studentów Politechniki Krakowskiej postanowiło to sprawdzić.
Mateusz Fudala, Mikołaj Munik, Karol Gacoń i Marcin Fortuna, studenci czwartego roku informatyki, stworzyli bota AI wspomagającego celowanie w grze Counter-Strike 2. Ich celem nie było oszukiwanie dla przyjemności, ale zrozumienie, na ile nowoczesna technologia może zmienić branże gier, gdy trafi w niepowołane ręce. Projekt zrealizowali w ramach działalności Koła Naukowego GENESYS PK, pod opieką dr. inż. Wojciecha Książka z Wydziału Informatyki i Telekomunikacji.
Sztuczny snajper przy monitorze
Nie jest to klasyczny cheat, który ingeruje w pliki gry lub modyfikuje pakiety danych przesyłane do serwera. Bot opracowany przez studentów działa z zewnątrz, analizuje w czasie rzeczywistym obraz ekranu (czyli zrzuty monitora), wykrywa wrogich graczy i automatycznie celuje oraz oddaje strzał. W praktyce działa to tak, jakby do komputera przypiąć sztucznego snajpera z błyskawicznym refleksem.
Za detekcję przeciwników odpowiada model YOLOv11. To nowoczesny algorytm AI do wykrywania obiektów, który został specjalnie przetrenowany przez studentów przy użyciu własnoręcznie stworzonego zestawu danych. Bot potrafił odróżnić terrorystów od antyterrorystów i precyzyjnie określić ich pozycję na ekranie, co pozwalało symulować ruchy myszki prowadzące do oddania idealnego strzału.

Bot działa jak nakładka – nie zmienia niczego w grze, nie hakujemy jej. Po prostu ‘patrzymy’ na ekran i symulujemy, co powinien zrobić człowiek – tłumaczy Mateusz Fudala.
Testy z żywymi graczami
Testy były prowadzane w systemie starć 1 na 1. Studenci oszacowali, iż tylko w takich warunkach można w najlepszy sposób ocenić umiejętności gracza w starciu z ich botem AI. Dlatego zastosowano ograniczenie w postaci włączenia gry z flagami modyfikującymi uruchomienie, które bazowo blokowały możliwość wejścia na serwery z innymi graczami.
W testach wzięło udział 10 graczy z różnych przedziałów rankingowych – od 1000 do 25000 punktów (im więcej punktów, tym gracz był lepszy).
Z graczami z rankingiem poniżej 10000 punktów bot nie miał żadnych problemów. Dla graczy od 10000 do 15000 dwóm z czterech udało się wygrać cały mecz. Od 15000 w górę nasz bot już sobie nie radził. Pomimo iż czas reakcji sztucznej inteligencji był lepszy niż gracza, to aplikacja kliencka zarządzająca ruchem myszki i strzelaniem nie nadążała z przetwarzaniem danych dostarczanych przez algorytm – tłumaczy Karol Gacoń.
Więcej na Spider’s Web:
Wyniki pokazały studentom, iż stosowanie AI do oszukiwania w grach sieciowych jest realnym zagrożeniem dla użytkowników.
Wykrywalność takiego systemu jest bardzo niska, a systemy wykrywające przestarzałe lub niestabilne. Aczkolwiek, nie można powiedzieć, iż branża chowa głowę w piasek i nie reaguje. Coraz częściej widuje się mechaniki zwalczające oszustów oparte na analizie behawioralnej, takie jak VACnet czy Battleye, które analizują dane telemetryczne: szybkość celowania, precyzję, czas reakcji czy schematy ruchów postaci. Głównym problemem AI jest to, iż często posiada nieludzkie wzorce zachowania, które da się statystycznie wyłapać – przyznaje Marcin Fortuna.
Sztuczna Inteligencja wciąż się uczy
Ale AI też się uczy i potrafi symulować bardziej realistyczne zachowania, by nie wzbudzać podejrzeń. Zdaniem studentów szanse na 100 proc. wykrywanie tego typu procederów są w tej chwili znikome.
Wprawdzie nie ma dokładnych metryk badających wykrywalność stosowania AI w grach sieciowych, ale algorytmy sztucznej inteligencji operują z zewnątrz „oglądając” ekran i uczą się coraz to nowszych zachowań, coraz skuteczniej imitując żywych graczy.
To sprawia, iż są trudniejsze do wykrycia od tradycyjnych oszustw modyfikujących rozgrywkę na korzyść oszusta, czyli tzw. cheatów. Co gorsza, wykorzystywanie sztucznej inteligencji w ten sposób nie zawęża się jedynie do gier typu FPS.
Przyszłość gier sieciowych? AI może być wrogiem i sprzymierzeńcem
Czy zatem sztuczna inteligencja to tylko narzędzie do oszustw? Niekoniecznie. Twórcy projektu podkreślają, iż ich badania mogą służyć również dobrej sprawie – bo lepiej poznać wroga, niż udawać, iż nie istnieje.
Zrozumienie, jak działa bot, to pierwszy krok do jego zwalczania. Możemy znaleźć luki, zidentyfikować słabości i stworzyć skuteczniejsze systemy antycheatowe – mówi Marcin Fortuna.
Poza tym AI może wspierać deweloperów tworząc realistyczne postacie niezależne (NPC), emulujące ludzkie zachowania, mowę, emocje czy reakcje. Takie rozwiązania już są testowane w grach typu open world i pozwalają tworzyć złożone światy szybciej, taniej i skuteczniej niż kiedykolwiek wcześniej.