首页 > 新闻动态 > 媒体宣传

新闻动态

News center

人工智能的演进:从神话到科学

发布日期:2023-09-12 17:50:31阅读量:0

技术的不足,都可以通过技术的手段纠正和弥补,毕竟没有任何技术是完美无缺的,更不用说刚推出的技术。无论有什么缺陷,我们必须正视——大模型孕育的让人惊叹的人工智能诞生了。



6年前,当AlphaGo在乌镇打败被称为“人类最强棋手”的柯洁时,很多人不由感慨:人工智能迟早要超越人类。

2022年底,一款名为ChatGPT的人工智能聊天应用突然火遍互联网。ChatGPT不是一个简单的聊天机器人,更像人们想象中的人工智能——可以理解人类,可以帮人类做更多的事情,比如写代码、总结、翻译等。同时,以Midjourney为代表的智能绘画应用让人工智能的应用范围更加广泛。这一切似乎在告诉我们,人工智能时代真的到来了。

2017年乌镇围棋大会上,柯洁对阵AlphaGo,最终不敌人工智能。图/谷歌中国提供

人工智能(Artificial Intelligence,AI)是指由计算机系统或机器执行的智能行为,包括感知、推理、学习、决策和创造等。人工智能的发展历史可以追溯到1950年代,当时图灵提出了著名的图灵测试,用于判断机器是否具有智能。从那时起,人工智能经历了多次兴衰,涌现出许多重要的理论和技术,如神经网络、专家系统、机器学习、深度学习等。其中,深度学习是近年来人工智能领域最具影响力的技术之一,它利用多层神经网络来模拟人类大脑的信息处理过程,从而实现对复杂数据的高效学习和表达。

人工智能从提出到今天已经有近百年的历史,回顾这段历史我们会发现,人工智能的发展可谓一波三折。而今天,我们正站在一个关键的时间节点上,可能会见证人工智能的一次重大飞跃。


01

从图灵测试说起 


说起人工智能,对这个领域稍有了解的人都会知道一个概念:图灵测试。

图灵测试的提出者阿兰·图灵是生活在上个世纪中叶的英国数学家,他不但是一个数学天才,对机器和人类思维也非常好奇。他想知道,机器能不能像人一样思考呢?不过,那时候还没有现代的电脑,只有一些简单的机械计算器。为了回答这个问题,图灵设计了一个思维实验:

让一个人(我们可以称之为C)通过键盘和屏幕跟另外两个对象(我们称之为A和B)聊天,其中一个对象是正常的人类,另一个对象是机器。C不知道A和B哪个是人哪个是机器,他只能通过提问来判断。如果C无法分辨出A和B的不同,那么就说明这台机器具有人类的智能。这个测试后来被称为“图灵测试”。

这个实验很有趣,也很有挑战性。想象一下,如果你是C,你会问A和B什么问题呢?你会问他们喜欢什么颜色吗?会问他们有没有朋友吗?会问他们怎么看待世界吗?你觉得这些问题能够帮助你区分出人和机器吗?其实,图灵测试并不容易通过。要让一台机器能够像人一样回答各种问题,需要解决很多技术难题。比如,机器要能够理解自然语言,也就是我们平时说话用的语言;机器要能够表示知识,也就是存储和处理各种信息;机器要能够进行自动推理,也就是根据已知的事实推出新的结论;机器还要能够进行机器学习,也就是根据经验不断改进自己的性能。


图灵测试在那个年代是不可能完成的任务,在这个思想实验提出后,无数的数学家、科学家、工程师投入到计算机和人工智能领域,试图创造出能像人类一样思考的机器。

1964年,约瑟夫•韦岑鲍姆开发了ELIZA程序,它是一个模拟心理治疗师的对话系统,能够用自然语言回答用户的问题,被认为是最早的图灵测试候选者之一。

1972年,肯尼斯•科尔比开发了PARRY程序,这是一个模拟患有偏执型精神分裂症的对话系统,能够用自然语言与用户交流,并表现出一些情绪和个性特征。后来,PARRY和ELIZA在一个名为“PARRY遇见ELIZA”的实验中进行了对话,并成功地欺骗了一些观察者。


上世纪80年代,图灵测试开始受到一些哲学家和科学家的批评和质疑,例如约翰•西尔和罗杰•彭罗斯,他们认为图灵测试只是考察了机器的模仿能力,并不能真正反映机器的思维、理解和意识。

1990年,雨果•德•加里斯创立洛布纳尔杯(Loebner Prize),这是一个每年举办的图灵测试竞赛,旨在评选出最能通过图灵测试的对话系统。该竞赛至今仍在进行中,但也受到了一些人工智能研究者的批评和抵制。

2014年,尤金•古斯特曼(Eugene Goostman)程序宣称通过了图灵测试,这是一个模拟13岁乌克兰男孩的对话系统,能够用英语与用户聊天,并利用其年龄和背景作为借口来掩盖其不足之处。然而,这一结果也受到了一些质疑和争议。


2022年底ChatGPT出现之后,很多人认为它已经可以通过图灵测试了,他们认为,ChatGPT表现出来的那些明显区别于人类的特征,是其发明者故意留下的破绽。也许吧,毕竟你在和ChatGPT对话的时候,经常会误认为对方是人类。

02

 人工智能的诞生与发展 


图灵测试的提出成为现代人工智能研究的滥觞,但人类对人工智能(或曰机器智能)的兴趣很早就出现了。在古希腊神话中,有一个叫做塔洛斯(Talos)的青铜巨人,是宙斯赠送给克里特岛国王米诺斯的礼物,用来保卫岛屿。塔洛斯每天绕着岛屿跑三圈,用炽热的身体和巨石攻击敌人。他的身体里有一根青铜管道,从头到脚流动着一种叫伊卡洛斯(Ichor)的神奇的液体,是神灵的血液。塔洛斯的脚踝上有一个螺栓,如果拧开了,伊卡洛斯就会流出来,塔洛斯就会死亡。这个故事可以说是最早的机器人和人工智能的想象之一。

中世纪的欧洲,有一位名叫阿尔贝图斯·马格努斯(Albertus Magnus)的神学家和哲学家,据说他用黄金和黏土制造了一个会说话的自动人偶,并用星相术赋予了它生命。这个自动人偶可以回答任何问题,甚至预言未来。但是,阿尔贝图斯的学生托马斯·阿奎那(Thomas Aquinas)认为这个自动人偶是恶魔的工具,于是用一把锤子把它打碎了。这个故事反映了中世纪的人们对于人工智能的恐惧和排斥。

到了17世纪末18世纪初,法国数学家和哲学家布莱兹·帕斯卡(Blaise Pascal)发明了一种叫做帕斯卡林(Pascaline)的机械计算器,可以进行加减法运算。这是最早的计算机原型之一,也是最早利用机械原理实现计算功能的设备之一。帕斯卡林对当时的数学和科学界产生了很大的影响,为后来的计算机科学奠定了基础,也为人工智能的出现提出了可行性路径。

再后来,就是阿兰·图灵在想象图灵测试之后提出了图灵机的概念,这是一种抽象的计算模型,可以模拟任何可计算函数,图灵也被称为“计算机科学之父”和“人工智能之父”,他的研究对计算理论和人工智能的发展都具有奠基性的意义。


人工智能的诞生和发展与计算机技术相辅相成,又和计算机有所不同。人工智能领域非常重要的两个概念“控制论”与“神经网络”诞生在上世纪中期。1943年,麦卡洛克和皮茨提出了神经元的数学模型,这是现代人工神经网络的基础。1948年,维纳提出了“控制论”的概念,认为机器和生物都可以通过反馈机制来实现自适应行为。1951年,图灵设计了一种早期的神经网络机器,称为“图灵机器人”,可以玩井字棋游戏。1957年,罗森布拉特发明了感知机,这是一种单层的神经网络,可以进行简单的分类任务。

提到人工智能,给我们留下深刻印象的,可能是1997年IBM的计算机“深蓝”打败国际象棋大师卡斯帕罗夫、2017年AlphaGo打败柯洁。事实上,人工智能发展史上,下棋一直是其重要的能力。1950年,信息论创始人香农提出了计算机博弈的理论,并设计了一个下国际象棋的程序。1951年,塞缪尔开发了一个下跳棋的程序,这是首个能够从自己的经验中学习的程序。1956年,纽厄尔和西蒙开发了一个下西洋跳棋的程序,并在达特茅斯会议上展示了它。


1950年图灵测试的提出,让人工智能有了更简单(但技术上更难)的测试标准。1955年,纽厄尔、西蒙和肖开发了一个叫做“逻辑理论家”的程序,是第一个能够用符号逻辑进行推理和证明定理的程序。这个程序被认为是第一个真正意义上的人工智能程序,并为后来的符号主义学派奠定了基础。

在上世纪中叶,人工智能已经成为非常热门的学术话题,很多科学家、数学家都参与其中。在这样的背景下,1956年,在达特茅斯学院举行了一次历史性的会议,会议由麦卡锡、明斯基、罗切斯特和肖组织,许多后来成为人工智能领域领军者的人物都参加了这次会议,如纽厄尔、西蒙、塞缪尔等。达特茅斯会议在当时看来可谓波澜不惊,但在这次会议上正式使用了“人工智能”(Artificial Intelligence,AI)这个术语,并确定了将AI作为一个独立学科的研究方向和目标。


达特茅斯会议之后,从1956年到1974年,人工智能领域取得了许多重大的突破和创新,也吸引了大量的资金和人才。

1957年,罗森布拉特提出了模拟人脑神经网络的感知机模型;1964年,约瑟夫·韦岑鲍姆开发了ELIZA程序;1965年,美国科学家爱德华•费恩波姆等人成功研制出化学分析专家系统DENDRAL,这是第一套有效进行工作的专家系统;1968年,美国斯坦福国际咨询研究所研发成功世界上第一台智能机器人Shakey,它具备一定程度的人工智能,能够自主进行感知、环境建模、行为规划并执行任务;1972年,斯坦福大学教授特里·温诺格拉德开发了一个名为SHRDLU的程序,可以用自然语言理解和回答一个有关虚拟世界中物体和动作的问题……

因为突破频频,1956年到1974年被称为“人工智能的黄金时代”,而在黄金时代中也暗藏危机。1966年,美国国防部资助了一项试图利用计算机进行自动翻译的研究项目,该项目的目标是将俄语的科技文献翻译成英语,以便美国获取苏联的科技信息,项目由美国科学院的语言自动处理咨询委员会(ALPAC)进行评估和监督。


然而,该项目的结果并不令人满意——机器翻译的质量低下、速度缓慢、成本高昂且无法处理语言的复杂性和多样性。1966年11月,ALPAC公布了一份名为《语言与机器》的报告,全面否定了机器翻译的可行性和前景,认为“在近期或可以预见的未来,开发出实用的机器翻译系统是没有指望的”。报告建议停止对机器翻译项目的资金支持,转而投入到词典和语料库的开发上。这个事件标志着人工智能低谷期的到来。

1973年,英国政府委托数学家詹姆斯·莱特希尔对英国的人工智能研究进行一项评估。詹姆斯·莱特希尔在评估报告中对人工智能的前景持悲观态度,认为人工智能研究者的承诺过于夸大,没有实现预期的影响和效果。报告还将人工智能分为两类:一类是基于数学和逻辑的人工智能,如自动推理、定理证明等;另一类是基于模拟人类认知过程的人工智能,如自然语言理解、图像识别等。报告认为,前者虽然有一定的价值,但难以应用于实际问题;后者则是不切实际的幻想,无法实现。


莱特希尔报告的发布对英国的人工智能研究造成严重的打击,导致政府和企业对人工智能的资助和支持大幅减少。报告也影响了其他国家对人工智能的态度和投入,加剧了人工智能领域的低谷期。

从1980年到1987年左右,人工智能受到日本政府的第五代计算机计划的刺激,专家系统得到广泛的应用和赞誉,知识表示和推理也取得进展,同时联结主义也得到重生,出现了反向传播算法和神经网络等,由此进入一段繁荣期。但由于日本第五代计算机项目未能达到预期目标、神经网络和专家系统被发现难以克服的弱点、经济衰退等因素,从1987年起,人工智能开始进入第二次低谷期。

日本第五代计算机项目在1982年启动,旨在制造出能够与人对话、翻译语言、解释图像,并且能像人一样推理的机器,但在1992年结束时,只取得了有限的成果。神经网络在1986年被重新发现并引起了一股热潮,但很快被发现存在过拟合、局部最优等问题。专家系统在20世纪80年代初期也取得了一些商业成功,但后来被发现难以维护、扩展和泛化。此外,20世纪80年代末期的经济衰退也影响了对人工智能的投资和需求。


这次低谷期一直持续到1993年。1993年后,人工智能发展进入了平稳期。从那时起到2010年这段时间,互联网在全世界范围内普及开来,全球进入信息时代。

互联网飞速发展的20年,计算机技术也一直沿着摩尔定律稳步前进。人工智能的发展虽然相对缓慢,没有出现太多的突破性成果,但互联网和计算机技术的发展也为后来的深度学习和大数据等技术的兴起奠定了基础。在这段时间里,深度学习、大数据、云计算技术都取得了相当不错的成果,受其影响,人工智能在感知、交互、认知等方面都有了重大的突破和进展,从而又一次进入了繁荣期。

人工智能第三次繁荣期的标志性事件是,2011年IBM的超级计算机沃森(Watson)在美国电视节目《危险边缘》(Jeopardy!)上击败了两位人类冠军,展示了自然语言理解和问答系统的能力。紧接着,2012年,AlexNet在ImageNet图像识别挑战赛上大幅提高了准确率,引发了深度学习在计算机视觉领域的热潮。而我们熟知的AlphaGo打败李世石和柯洁,则缘起于2014年谷歌收购DeepMind公司,后者开发了一种可以自主学习玩各种电子游戏的强化学习算法,这种算法催生了后来的AlphaGo,并在2016年和2017年两战“封神”。


在语音语义方面,2015年微软和百度分别宣布他们的语音识别系统达到了人类水平;2017年,阿里巴巴和微软分别宣布他们的机器翻译系统在中英文互译上达到了人类水平;2018年,OpenAI发布了一种可以自主生成任意文本的自然语言生成系统GPT;2019年,谷歌发布了一种可以玩《星际争霸2》等复杂策略游戏的强化学习系统AlphaStar;2020年,OpenAI发布了GPT-3,一种可以根据任意输入生成各种类型文本的自然语言生成系统;2022年底,ChatGPT公开上线,一个人工智能的新时代到来了。

03

深度学习与大模型 


从2011年起,人工智能的发展进入了蓬勃期,这个时期的主要技术包括深度学习、强化学习与大型语言模型等,正是这些技术催生了AlphaGo以及ChatGPT。我们要理解当前的人工智能,就需要对这些技术有简单的了解。

深度学习是机器学习的一种分支,它使用多层的神经网络来进行表征学习,也就是从数据中提取出有用的特征和概念,从而实现对数据的多层抽象。深度学习可以处理各种类型的数据,如图像、语音、文本、音频等,并将其转化为神经网络可以理解和处理的数值向量。深度学习的优势在于它可以自动地从数据中学习特征,而不需要人工地设计或选择特征,这样可以减少人为的偏差和错误,并提高模型的泛化能力。


深度学习和大模型之间有着密切的联系,因为大模型是深度学习的一种发展方向,也是一种解决深度学习中存在的问题(如梯度消失、过拟合、泛化能力等)的方法。深度学习和大模型也受到神经科学和认知科学的启发,试图模拟人类大脑中神经元和信息处理的方式。

大模型是指使用大量参数的神经网络,通常达到了百亿甚至万亿的规模。大模型可以利用更多的数据和计算资源来提高深度学习的性能,同时也具备自监督学习的功能,可以减少数据标注的成本和提高小样本学习的能力。大模型也被称为基础模型或基石模型,因为它们可以作为通用的预训练模型,再通过微调来适应不同的下游任务。例如,在自然语言处理领域,GPT-3就是一个典型的大模型,它使用了1750亿个参数,并在45TB的文本数据上进行了预训练,然后可以通过简单地改变输入格式或添加少量标签数据来完成各种语言任务,如文本生成、问答、摘要、翻译等。GPT-4的参数更是达到了3.5万亿,是GPT-3的20倍。

深度学习和大模型已经在很多领域中取得了令人瞩目的应用和成果。比如在计算机视觉领域,深度学习和大模型可以实现高精度的图像分类、目标检测、人脸识别、图像生成、图像风格迁移等任务;在语音识别领域,深度学习和大模型可以实现高效准确的语音转文字、文字转语音、语音合成、语音翻译等任务;在自然语言处理领域,深度学习和大模型可以实现多样化丰富的语言任务,如文本理解、文本生成、问答、摘要、翻译等。以上只是一些代表性的例子,实际上深度学习和大模型还有很多其他的应用和成果,如音乐生成、艺术创作、医疗诊断、智能交通等等。

深度学习和大模型虽然已经取得了很多令人惊叹的成就,但是它们也面临着一些机遇和挑战。


一方面,深度学习和大模型有着巨大的潜力和前景。随着数据量和计算资源的增加,深度学习和大模型可以不断地提升自己的性能和能力,并拓展更多的应用领域和场景。深度学习和大模型也可以与其他技术相结合,如强化学习、知识图谱、联邦学习等,形成更强大和更智能的系统和平台。深度学习和大模型也可以为人类社会和科技进步带来巨大的价值和意义,如提高生产效率、改善生活质量、促进教育公平、保护环境资源等。

另一方面,深度学习和大模型也存在着一些问题和风险。比如,深度学习和大模型需要消耗大量的数据和计算资源,这会带来高昂的成本和环境影响——据估计,训练GPT-3所需的电力相当于5000辆汽车一年的碳排放量。深度学习和大模型可能缺乏可解释性和可信度,这会导致模型的不可靠和不可控,例如,由于数据中存在的偏见或噪声,深度学习和大模型可能产生错误或不道德的结果,如歧视、误导、欺骗等。

当然,这些只是技术的不足,都可以通过技术的手段纠正和弥补,毕竟没有任何技术是完美无缺的,更不用说刚刚推出的新技术。无论有什么缺陷,我们必须正视——大模型孕育的让人惊叹的人工智能诞生了。目前,人工智能已经在教育、数字创意、医疗、交通等领域展示出了强大的能力,更不用说我们日常进行的聊天、绘画了。

04

 人工智能时代已到来 


可能还有很多人没体验过ChatGPT(以及类似的AI应用),会认为这类生成式AI不过是根据用户的文字进行上下文搜索,本质上还是以大数据和大模型为基础的“猜字游戏”,并不具备逻辑思维能力,更没有意识。这种看法也许没错,但ChatGPT的能力可能已经超越很多人的想象了。

猎豹移动CEO傅盛本来也是持有这种看法的人,后来他和ChatGPT的一次对话彻底改变了其看法。他告诉ChatGPT,他的狗名叫三万,问它为什么会给自己的狗取这样一个名字。在ChatGPT说了一些给宠物取名可能的原因之后,傅盛补充,他的狗是收养的,因为骨折做过手术。然后ChatGPT回答:你可能因为给狗做手术花了三万块钱,为纪念这次手术给狗取了这个名字。傅盛非常惊讶,他在社交平台上发文称:“这不是内容的重新整理,而是基于常识的推理!头皮发麻啊,这种推理能力本来业界认为几乎不可实现!图灵测试肯定是能通过了,关键这才刚刚开始……”


是的,现在基于大模型的生成式人工智能已经可以做到基于事实进行合理的逻辑推理了,我们虽然不能称其为“理解人类语言”,但在用户的使用感受上来说,这是完全不同于过去“人工智障”的真正的人工智能。而对于过去我们一直使用的计算机应用来说,它们甚至连人工智障都算不上。

同样是计算机技术,为什么我们不把普通的计算机应用称为人工智能?主要原因是,普通的计算机应用并不具备像人类那样思考的能力,而人工智能具备(或者说需要具备)。如果要让计算机像人类那样思考,就必须让其理解人类的大脑是如何工作的。因此,人工智能的发展离不开脑神经和认知神经科学。

简单地说,人工智能是利用计算机和数学来模拟和实现人类或动物的智能行为,比如视觉、语言、推理等;脑神经科学是研究大脑的结构、功能和机制,探索大脑如何处理信息和产生行为;认知神经科学是脑神经科学的一个分支,它主要关注大脑如何支持认知过程,比如注意力、记忆、情感等。这两个领域之间有很多交叉和互动,可以说是相互启发、相互促进的。一方面,人工智能可以借鉴大脑的原理和方法来设计更好的算法和系统,比如深度学习中的卷积神经网络就是受到人类视觉系统的启发。另一方面,人工智能也可以为脑神经科学提供新的工具和思路来分析和模拟大脑的数据和过程,比如使用机器学习来识别大脑活动的模式。


人工智能目前还不能完全模拟大脑的复杂性和灵活性,也不能解释大脑的内在逻辑和意义。脑神经科学目前还不能完全揭示大脑的结构和功能,也不能预测大脑的行为和结果。这些问题需要更多的研究和探索,也需要更多的合作和交流。也许将来,我们将会研究清楚人类的大脑和认知,创造出真正媲美人类大脑的计算机智能。