facebook
> Strona główna >
Walka trwa…

W związku z pojawieniem się na platformie L.E.M. nano zdarzenia „Sztuczna inteligencja kontra StarCraft” zachęcamy do zapoznania się z wybranymi przykładami rozwoju sztucznej inteligencji projektowanej do grania w gry komputerowe.


Na początek warto zwrócić uwagę, iż często „sztuczna inteligencja” odpowiadająca za zachowania przeciwników w grach wideo, może w istocie mieć niewiele wspólnego ze sztuczną inteligencją w pełnym rozumieniu tego terminu. Choć trudno wskazać jedną, obowiązującą definicję sztucznej inteligencji, często w jej przypadku mówi się o zdolności programów komputerowych do analizowania otoczenia, rozumowania na podstawie zebranych informacji czy uczenia się – czego często nie potrafią przeciwnicy kontrolowani przez nawet skomplikowane, ale jednak sztywno określone algorytmy (najwyżej z pewnymi elementami AI). Często tacy adwersarze są w stanie stwarzać iluzję stosunkowo zaawansowanej „inteligencji”, jednak nawet na zaawansowanych poziomach trudności doświadczeni gracze lub profesjonalni zawodnicy e-sportowi potrafią sobie z nimi radzić. Ale czy z grami wideo poradziłaby sobie sztuczna inteligencja w pełnym znaczeniu tego słowa – szczególnie, gdyby przyszło jej się zmierzyć z „ludzkimi” graczami na wysokim poziomie?

Historia rozwoju AI jest ściśle związana z grami. Wiele z gier oferuje dużą strategiczną głębię w łatwym do reprodukcji środowisku o ustalonych regułach i jasnych kryteriach zwycięstwa. Z tego względu gry stanowią bardzo dobre pole do testowania nowych rozwiązań w dziedzinie AI, które następnie znaleźć mogą zastosowanie także poza grami. AI opanowała już takie gry jak Nim (gra logiczna, jedna z pierwszych przeniesionych do wersji elektronicznej w latach 1951-52), warcaby, szachy (zwycięstwo Deep Blue nad Garrym Kasparowem w 1997 roku) oraz go (zwycięstwa AlphaGo nad mistrzami tej gry logicznej w 2016 i 2017 roku). Jednak czy sztuczna inteligencja poradziłaby sobie z bardziej dynamicznymi grami?

Prace na tym obszarze trwają, ale interesującym przykładem rozwoju są prace inżynierów związanych z DeepMind (firma ta stworzyła m.in. AlphaGo oraz ogłosiła rozwój prac nad zastosowaniem AI w stawianiu diagnoz medycznych). Jej inżynierowie na przełomie 2014 i 2015 roku opublikowali wyniki badań nad sztuczną zdolną grać na wysokim poziomie w niektóre gry z konsoli Atari 2600 (np. Pong, Breakout, Space Invaders, Enduro) jedynie na podstawie sygnałów wizualnych – bez informacji o kontekście wykonywanych zadań („sensie” gry) czy dostępu do stanu silnika gry. W grach Enduro, Pong i Breakout AI była w stanie pobić wyniki graczy „ekspertów”, z kolei w Space Invaders i kilku innych tytułach AI poradziła sobie gorzej – głównie ze względu na to, że gry te wymagały opracowania strategii działających w dłuższym segmencie czasu.

Ciekawym eksperymentem jest również AI o nazwie MarI/O – co prawda nie potrafi ona analizować „czystych” danych wizualnych, jednak już w 2015 roku program ten potrafił pokonać pierwszy poziom gry Super Mario World na konsolę SNES.

Czy AI będzie w przyszłości w stanie rywalizować nie tylko z samymi przeciwnikami w grach – ale także z graczami-ludźmi?

Artykuł dotyczy zdarzenia "Sztuczna inteligencja kontra Starcraft". Zachęcamy do dyskutowania artykułu i rozstrzygnięcia w komentarzach na stronie zdarzenia.

Bibliografia:
en.wikipedia.org - Artificial Intelligence (Video games) (ang.)
en.wikipedia.org - AlphaGo (ang.)
en.wikipedia.org - DeepMind (ang.)
Playing Atari with Deep Reinforcement Learning (ang.)
Engadget - Artificial intelligence learns Mario level in just 34 attempts (ang.)



Powrót