[Computers] can only match the patterns they have learned, and they have limited capacity to learn more than just a few patterns. Humans are optimized for learning unlimited patterns, and then selecting the patterns we need to apply to deal with whatever situation we find ourselves in.
Der verlinkte Artikel fasst ziemlich gut einige der grøszeren bestehenden Herausforderungen diesbezueglich zusammen. Dort werden auch zwei Artikel von bzw. bzgl. Douglas Hofstadter verlinkt. Im ersten schreibt, dieser ueber die „Flachheit“ von google translate. Der zweite geht ueber seine jahrzehntelange Arbeit an sich. Beide lohnen sich zu lesen.
Aber dann ist da auch AlphaGo Zero.
The neural network initially knew nothing about Go beyond the rules. […] [it] only perceived the board’s stones, rather than having some rare human-programmed edge cases to help recognize unusual Go board positions. The AI […] [played] against itself until it could anticipate its own moves and how those moves would affect the game’s outcome.
Das was oben steht ist (mindestens heutzutage), im Allgemeinen richtig. Aber AlphaGo Zero hat von alleine Strategien erlernt wie man Go gewinnt. Und zwar nicht nur gegen einen anderen „dummen“ Computer, sondern gegen menschliche Meisterspieler. Und bereits die Vorgaengerversion hat Strategien gefunden, die in tausenden von Jahren, wer weisz wie viele Spieler und Meisterspieler die Go in-und-auswendig konnten und kannten und im Detail analysiert hatten, nicht gefunden haben!
Und Strategien sind nichts anderes als abstrakte Konzepte.
Sicherlich! Dieses Beispiel ist domaenenspezfisch, aber wenn man Erfahrung in genug Domaenen zusammen nimmt, hat man etwas, was mehr und mehr dem menschlichen Gehirn gleicht, aber dennoch ganz anders ist.
Voll spannend! Und der Mangel an Fantasie sollte uns nicht verfuehren zu glauben, dass das niemals passieren wird.
Leave a Reply