方舟子访谈:人工智能多可怕?
《北京晨报》2016.3.15.
人机大战,李世石三战皆墨,人工智能全面胜出,围棋小天地,环宇大世界,
科幻电影里的危机似乎就要走进现实,无数人忧心忡忡,以至于当李世石终于扳
回一局时,世界沸腾,“李世石终于赢了”“人类取得宝贵一胜”……
科技进步不止一次地带来了伦理的难题,科技究竟会带给人类什么?是进步,
是毁灭?这是一个永远都争论不清的问题。
方舟子(科普作家)
科学研究要有道德要求
科学技术是中性的,可以用以造福人类,也可以用以祸害人类。随着技术的
发展,技术的威力越大,它能带来的效果越来越大,可能的恶果也会越来越严重,
产生的影响会是全球性的和全人类的。实际上人类早就拥有了毁灭自己的能力。
一旦发生核战争,现在的核武器储备足以把人类毁灭很多次了。全球气候变暖、
环境问题同样让人类的生存面临困境,这也与技术的发展有关。
至于人工智能,在可预见的未来还没有达到足以让我们担忧的地步。阿尔法
棋只是一个下棋程序,虽然能战胜世界冠军,但也只是个下棋程序,不给它编程
它别的什么都不会做,更不会真正的思考,比如它对李世石的第四盘第97手下出
了任何人类棋手都不可能下的式臭棋,表明它其实没有智能、不会真正下棋。
它能战胜世界冠军令人惊讶,但是为此夸大人工智能的成就,为此忧心忡忡担心
未来有一天人工智能会失控、人类会被人工智能控制甚至被灭绝,则大可不必,
是科幻电影、科幻小说看多了。
有人问,你能理解智商2千的人工智能吗?未来真有那样的人工智能,也不
过意味着其思维更严密、更敏捷、判断力更强、解决某些问题更快而已,有什么
恐怖的?对未来人工智能胡思乱想的人,有的是工程师思维,以为世界上的东西
都能够量化、数字越大越好而且增长没有止境。但世界不是这样的直线。
当然,和所有的技术一样,人工智能是福是祸,取决于人们怎么用它。如果
将来人工智能毁灭了人类,那也不是它自己的选择,而是被人类滥用,比如被用
来作为武器。
既然科技是中性的,就要求科学家、工程师在从事研究的时候要有伦理、道
德要求。不过我们也不要把科学家、工程师设想得太可怕。如果未来真的出现威
胁人类生存的全球危机的话,那也不太可能是某个疯狂科学家所为,而是某个疯
狂政客或军事狂人滥用权力的结果。
北京晨报记者 周怀宗(SciFans.Net)