Spel har genom åren använts för att testa hur smart och anpassningsbar en artificiell intelligens är. 1997 fick schackmästaren Garri Kasparov se sig besegrad av IBM:s Deep Blue. Häromåret lyckades Alpha Go spöa världens bästa mänskliga Go-spelare. Och nu har en variant av den Alphabet-ägda (företaget som äger Google) AI:n Deepmind spöat skiten ur två Starcraft 2-proffs.

I slutet av december ställdes Team Liquid-spelarna Grzegorz “MaNa” Komincz och Dario “TLO” Wünsch mot en självlärande Deepmind-variant kallad Alphastar i fem 1 mot 1-matcher vardera. Resultatet: 5-0, 5-0 till Deepmind.

AI:n hade lärt sig hur Starcraft 2 fungerar genom att se repriser, och den beräknades sitta på ungefär 200 mänskliga års erfarenhet av spelet. Anmärkningsvärt nog fattade AI:n beslut betydligt långsammare än människorna – cirka 280 APM (actions per minute), fast då var besluten å andra sidan mer precisa, skriver Deepmind-utvecklarna. Tempot beror på att AI:n lär sig genom att studera repriser av matcher spelade av människor, och den kopierar helt enkelt det den ser. Fördröjningen mellan en observation och en handling låg i snitt på 350 millisekunder.

En skillnad mellan AI:n och människorna var att den förra såg hela spelplanen, medan människorna samlar in information genom att flytta runt kameran. Det låter som en ganska betyande fördel för AI:n, men analyser av matcherna pekar på att den koncentrerade sig på specifika områden, och bytte fokusområde ungefär lika ofta som människorna (30 gånger per minut).

Deepmind-gänget drar slutsatsen att AI:n vann för att den var överlägsen på att fatta strategiska beslut på både makro- och mikronivå, inte för att den reagerade och klickade snabbare eller hade bättre överblick.

Avslutningsvis lyckades Komincz faktiskt vinna en match mot AI:n. Det var mot en ny variant som använde samma kamera som människorna, med bara sju dagars träning i ryggen och som inte sett mänskliga proffsspelare. Ett sista hopp, kan vi kalla det.