【安防在线 www.anfang.cn】牛津大学人类未来研究院院长、哲学教授尼克・博斯特罗姆的新书《超级智能:方法、危险、策略》供不应求,生命未来研究所(FLI)在波多黎各举行了人工智能未来安全的讨论会议,两封关于人工智能和自动武器的信件公之于众,SpaceX和特斯拉的共同创始人埃隆・马斯克、宇宙学家斯蒂芬・霍金、微软公司创始人比尔・盖茨和苹果联合创始人史蒂夫・沃兹尼亚克等业界大咖都发表过关于人工智能威胁的言论,无数文章援引了他们的担忧。
(马斯克花费10亿美元打造OpenAI | 图片来源:Yahoo)
马斯克通过FLI捐赠了1000万美元用于人工智能安全研究,莱弗休姆未来情报中心获得1500万美元用于研发智能的未来。还有最近成立不久的非营利组织OpenAI,花费10亿美元把人工智能领域最有思想的那群人聚到一起,想办法解决人工智能的安全问题。
总而言之,这是一个人工智能安全研究的丰收年。越来越多的科研人员和从业人员加入到人工智能安全研究领域中来,还有许多未知的惊喜等着我们去发现。
那么,我们到底在惧怕什么呢?
OpenAI的成立可以说是这个月的重磅消息,神经信息处理系统会议也在此时召开,吸引了一大批机器学习大牛莅临现场。大会上最引人注目的是主题为《生活中的算法:机器学习对社会的影响》的座谈会,人工智能行业最具影响力的大咖在会上谈论了他们的想法和对未来人工智能的担忧。本文要为大家分享各位大咖的最新观点。
(与会人员 从左到右:英国伦敦帝国学院认知机器人教授穆雷・沙纳汉,英国伦敦帝国学院人工智能专家肖恩・莱格,百度首席科学家吴恩达,Facebook人工智能负责人雅安・勒存,,IEEE前机器学习工程师汤姆・迪特里奇,纽约大学语言与音乐研究心理学家加里・马库斯。| 图片来源:Futureoflife)
AGI值得我们担心吗?
Artificial General Intelligence(AGI)是指强人工智能,这是一种人类级别的人工智能,在各方面都能和人类比肩,人类能干的脑力活它都能干。不仅仅是当今人工智能所应对的局部、特定的问题,未来可能出现的复杂繁冗任务对它来说都不在话下,当前的人工智能需要人类进行编程,但不排除未来的某一天它可以自动编程。因此,AGI的定义其实也不太准确。
Facebook人工智能负责人雅安・勒存说:“我不想谈论人工智能,因为我真的不知道它到底是什么意思。”
如果说AGI定义尚难,那就更别说要预测它的发展了。勒存和吴恩达等人都认为不必在AGI的预测上浪费时间,因为目前人类要达到这个水平还远的很。人工智能还需要跨越一个几年甚至几十年的寒冬。百度首席科学家、斯坦福大学教授吴恩达做了个比喻,人类对未来人工智能的担忧简直比得上对半人马座α星系的幻想 (注:由于半人马座α星系统距离地球很近,许多科幻小说都“认为”这里存在发达的宇宙文明)。
勒存表示,我们真的无法得知拥有超常智慧的人工智能会是什么样子。“人工智能会发展成人类的智能吗?肯不会的。”勒存解释,人类智能不是我们想象中的那个样子,“我们是有本能的,会驱动一些人类去做坏事,但是人工智能却没有。”
然而,一些与会者并不认同勒存和吴恩达的观点。他们认为我们必须要提前做好应对准备。
谷歌DeepMind联合创始人肖恩・莱格认为,现在开始研究人工智能安全是绝对有益的,它帮助我们建立起一个框架,让研究人员在这个框架内朝着积极的方向去发展更聪明的人工智能。
“关于人工智能的安全,我认为有过分夸大和被忽略的方面。”莱格认为,我们应该深刻地讨论人工智能给社会带来的正负面影响。“当我们正处在发展的过渡期,我们应该负起责任,提前考虑技术、社会、法律等方面的问题,提前做好准备总比出现问题时再考虑好。”
纽约大学语言与音乐研究心理学家加里・马库斯补充道:“我们不仅需要为人工总体智能做准备,更要为人工智能做准备。现在已经出现了安全和风险问题了。”
吴恩达认为人工智能安全研究并不是一件坏事,“我很高兴能看到社会各界的人们参与到人工智能伦理研究中来,这确实是一个伟大的事业。”但吴恩达坚持认为不能花太多精力到人工智能安全研究上去。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。