- Chatbot从0到1(第2版):对话式交互实践指南
- 李佳芮 李卓桓编著
- 2594字
- 2024-02-01 14:49:02
1.2 起伏跌宕
然而,人工智能并非一直是时代的宠儿,正如尼采所说:“谁终将声震人间,必长久深自缄默;谁终将点燃闪电,必长久如云漂泊。”
1940—1955年,早期的人工智能研究始于研究人员对人类思维和计算理论的探索。在这个时期,研究人员对于如何构建一台像人一样思考的计算机充满了好奇。为了达成这个目标,很多研究人员通过研究大脑结构和功能,试图从中获取灵感。在这个时期,Warren McCulloch和Walter Pitts提出了神经网络模型,为人工智能研究奠定了基础。这个模型基于人脑的神经元之间的连接方式,实现了简单的逻辑计算。1950年,Alan Turing发表了《计算机与智能》的论文,提出了著名的图灵测试,成为人工智能领域的奠基之作。他认为,如果一台计算机能够通过图灵测试,即让人类无法区分计算机和人类的回答,那么这台计算机就可以被认为是具有智能的。
1956年,在由达特茅斯学院举办的一次会议上,计算机专家约翰·麦卡锡提出了“人工智能”一词,这被人们视为人工智能正式诞生的标志。这次会议之后,人工智能迎来了属于它的第一段黄金时期,在这段长达十余年的时间里,计算机被广泛应用于数学和自然语言领域,用来解决代数、几何和英语问题。这提振了很多研究人员对机器向人工智能发展的信心。当时,很多学者甚至断言:“二十年内,机器将能完成人能做到的一切。”
然而,早期的人工智能研究面临着许多挑战。当时可用的计算能力有限,人工智能研究缺乏资金和资源的支持。此外,对于什么是人工智能的定义缺乏明确性,这导致了领域内的混乱和广泛的解释。20世纪70年代,人工智能十余载的光辉逐渐日薄西山。对项目难度预估不足,最终没有产生实际落地的应用项目,让人们暗自怀疑人工智能是否只是幻梦一场。舆论压力慢慢压向人工智能领域,很多研究经费被转移到其他项目上。当时,人工智能面临的技术瓶颈主要有三个方面:
第一,计算机性能不足。早期能在人工智能领域得到应用的程序寥寥无几。
第二,问题远比想象的复杂。在问题单一的特定场景下,人工智能程序还可以应对,一旦场景多维,问题更复杂后,就无能为力了。
第三,数据量严重缺失。没有足够的数据进行深度学习,机器的智能程度要快速上一个台阶变得非常困难。
因此,人工智能项目停滞不前。詹姆斯·莱特希尔于1973年发表了针对英国人工智能研究状况的报告,批评了人工智能在实现“宏伟目标”上的失败。此后,人工智能遭遇了长达6年的低迷期。
尽管面临许多挑战,但早期的人工智能研究为未来的发展奠定了基础。它引发了研究人员对于开发能够执行以前被认为需要人类智能才能完成的任务的机器的兴趣。随着人工智能领域的不断发展和演变,研究人员开始开发新的技术和模型,如专家系统和机器学习算法,为现代的人工智能时代铺平了道路。
遇冷6年后,人工智能又奋力爬起。1980年,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。专家系统是一种采用人工智能程序的系统,可以简单地理解为“知识库+推理机”的组合。XCON是一套具有完整专业知识和经验的计算机智能系统,直到1986年,这套系统每年能为公司节省超过4000美元的经费。Symbolics[1]、Lisp Machines[2]和IntelliCorp[3]等软硬件公司应运而生。在这个时期,仅专家系统产业的价值就高达5亿美元。
令人不胜唏嘘的是,命运的巨轮再一次碾过人工智能,让其回到原点。在维持了仅仅7年之后,这个曾经轰动一时的人工智能系统的历史进程就宣告结束。到1987年,苹果和IBM公司生产的台式机性能都超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。
尽管专家系统的兴盛逐渐消退,但机器学习的进展为人工智能带来了新的希望。自20世纪80年代以来,机器学习已经成为人工智能领域的核心技术之一。机器学习研究如何让计算机从数据中学习和提取知识,以自动适应不断变化的环境。这一领域取得了许多突破性成果,为人工智能的发展和应用提供了重要推动力。
一个重要的机器学习技术是神经网络,尤其是深度学习。深度学习是一种多层次的神经网络,可以从原始数据中自动学习多层次的表征。在此基础上,深度学习可以识别复杂的模式,从而应对前所未有的挑战。21世纪初,随着计算能力的提升和大数据的涌现,深度学习取得了令人瞩目的进展。
20世纪90年代中期,随着人工智能技术尤其是神经网络技术的逐步发展,以及人们对人工智能越来越客观的认知,人工智能技术进入平稳发展期。1997年5月11日,IBM的计算机系统“深蓝”[4]战胜了国际象棋世界冠军卡斯帕罗夫,这在公众领域引发了现象级的人工智能话题讨论。这是人工智能发展的一个重要里程碑。2006年,辛顿[5]在神经网络的深度学习领域取得突破,人类又一次看到机器赶超人类的希望,这也是标志性的技术进步。2016年至2017年,由Google DeepMind[6]开发的人工智能围棋程序AlphaGo战胜人类围棋冠军。AlphaGo具有自我学习能力,它能够搜集大量围棋对弅数据和名人棋谱,学习并模仿人类下棋。DeepMind也已进军医疗保健等领域。2017年,深度学习大热。在无任何数据输入的情况下,AlphaGoZero(第四代AlphaGo)自学围棋3天后便以100∶0的比分横扫了第二代AlphaGo——“旧狗”;学习40天后,它又战胜了在人类高手看来不可企及的第三代AlphaGo——“大师”。
后来,大语言模型出现。在这个领域,OpenAI开发的GPT系列模型成了研究和应用的典范。GPT(Generative Pre-trained Transformer)是OpenAI开发的基于Transformer架构的预训练语言模型系列。从2018年的GPT-1开始,逐步演变到2020年的GPT-3,拥有强大的语言生成和泛化能力。随后,通过对代码训练、有监督指令调优及人类反馈的强化学习,诞生了Codex、InstructGPT、text-davinci-002/003和ChatGPT等多个变体,拓展了在问答、生成任务和对话等领域的应用。需要注意的是,上述模型间的具体关系并未被OpenAI完整公布,部分内容是基于研究和推理得出的。GPT-3的参数量达到1750亿,使其具备了强大的自然语言处理能力,以至于在某些任务上已经接近甚至超越了人类水平。GPT-4是OpenAI推出的最新一代大语言模型。该模型在处理自然语言任务方面取得了更为显著的成果。借助GPT-4,Chatbot得以在很多方面达到令人惊艳的水平,例如在开放领域的问答、文本生成、摘要、翻译等任务中展现出卓越的性能。这使得Chatbot能够更自然、更智能地与用户互动,提供更为精准的信息和服务。
近年来,随着人工智能的飞速发展,我们见证了一场商业领域的巨变。互联网巨头如谷歌、微软、百度等,以及众多富有创新精神的初创公司,纷纷投身于人工智能产品的竞争,掀起了一场智能化浪潮。曾经出现在电影中的科幻场景如今似乎触手可及,愈发多的人带着憧憬和热情,加入了这场连接未来的变革。随着技术日益成熟和公众接受度的提升,我们有理由相信,这场浪潮将构筑一座连接现代文明与未来文明的桥梁。