<div dir="ltr"><div>I belonged to a Go game club at WSU once, sometimes hosted by a computer scientist at WSU.  At that point in time, the best Go champions in the world could beat any computer program at this complex game, considered by many to be more difficult and complex than chess.</div><div><br></div><div>I have been checking periodically for years regarding whether computer programs have developed to the level where they can beat the best human players at Go.</div><div><br></div><div>We shall see what is the outcome of this series of matches.</div><div><br></div><div>This computer program involves a "...self-learning program... known as a neural network..."</div><div><br></div><div>Once computers can program themselves to the point humans are irrelevant, then maybe they will keep us around as pets... Otherwise?</div><div><br></div><div>Vision2020 Post: Ted Moffett</div><div>--------------------------------------</div><div><a href="http://www.npr.org/sections/thetwo-way/2016/03/09/469788814/ai-program-from-google-beats-human-world-champ-in-game-of-go">http://www.npr.org/sections/thetwo-way/2016/03/09/469788814/ai-program-from-google-beats-human-world-champ-in-game-of-go</a></div><div><br></div><div><font size="4">A.I. Program From Google Beats Human World Champ In Game Of Go</font></div><div><br></div><div>Bill Chappell</div><div><br></div><div><strong>Updated </strong><span>March 9, 2016</span><span>1:31 PM ET</span>             <span id="originally-published"><b>Published </b><span>March 9, 2016</span><span>10:54 AM ET</span> </span></div><div><span><p>In the first of a series of games pitting Google's AI computer against a human world champion in the ancient game of Go, Google DeepMind's AlphaGo program has narrowly taken Round 1 from Lee Sedol.</p><p>Sedol resigned with more than 28 minutes remaining on his clock, after a game that included 186 moves. The game was played in Sedol's native South Korea, the first in a five-game match that carries a prize of about $1 million.</p><p>A brief recap from <a href="http://googleasiapacific.blogspot.co.uk/2016/03/alphagos-ultimate-challenge.html"><font color="#000080">Google</font></a>:</p><blockquote><div><p>"They were neck-and-neck for its entirety, in a game filled with complex fighting. Lee Sedol made very aggressive moves but AlphaGo did not back down from the fights. AlphaGo took almost all of its time compared to Lee Sedol who had almost 30 minutes left on the clock."</p></div></blockquote><p>"I was very surprised," Lee said after the match, according to <a href="http://www.theverge.com/2016/3/9/11184362/google-alphago-go-deepmind-result"><font color="#000080">The Verge</font></a>. "I didn't expect to lose. [But] I didn't think AlphaGo would play the game in such a perfect manner."</p><p>Sedol and AlphaGo will play four more times in the next week, taking breaks on Friday and Monday. You can watch their first game — and hear analysis of the strategies involved — on DeepMind's YouTube channel.</p><p>In it, Sedol is seen rubbing his neck and scratching his head as the close match progresses. In the end, he carefully analyzed the board before deciding to resign. Sedol then moved several pieces around on the board, running through simulations of what might have happened if he had played differently.</p><p>The win is the latest sign that a computer can make complex choices to defeat an elite human competitor in Go, a game that's seen as being tougher than chess. Last October, AlphaGo beat European champion Fan Hui, but he isn't ranked on Sedol's level.</p><p>Here's how the <a href="http://www.intergofed.org/igf-news-feed/deep-learning-takes-computer-go-to-the-professional-level.html"><font color="#000080">International Go Federation</font></a> described that matchup:</p><blockquote><div><p>"In the first of the five AlphaGo-Fan games, both sides played conservatively and AlphaGo won by 2.5 points. In the rest of the match Fan played aggressively, but AlphaGo outfought him and won four times by resignation. Fan described AlphaGo as "very strong and stable ... like a wall."</p></div></blockquote><p>As NPR's Geoff Brumfiel <a href="http://www.npr.org/sections/thetwo-way/2016/03/08/469638745/how-googles-neural-network-hopes-to-beat-a-go-world-champion"><font color="#000080">reported Tuesday</font></a>:</p><blockquote><div><p>"The Google program, known as <a href="https://deepmind.com/alpha-go.html"><font color="#000080">Alpha Go</font></a>, actually learned the game without much human help. It started by studying a database of about 100,000 human matches, and then continued by playing against itself millions of times<strong>.</strong></p><p>"As it went, it reprogrammed itself and improved. This type of self-learning program is known as a neural network, and it's based on theories of how the human brain works.</p><p>"AlphaGo consists of two neural networks: The first tries to figure out the best move to play each turn, and the second evaluates who is winning the match overall."</p></div></blockquote></span></div></div>