哎,你真的不想多了解一下AI吗?!

"无论人生上到哪一层台阶,阶下有人在仰望你,阶上亦有人在俯视你,你抬头自卑,低头自得,唯有平视,才能看见真实的自己。" --杨绛先生

大家好,我是柒八九

前言

在之前我们分别介绍了,ChatGPT/Stable Diffusion的实现原理和环境搭建。无论多少花里胡哨的技术,这些都属于AI的技术范畴,所以本着刨根问底 的求知欲望,我们今天讲讲 --何为AI

人工智能AI)是计算机科学的一个广泛领域,涉及构建智能机器,使其能够执行通常需要人类智能的任务。虽然AI是一个跨学科的科学,具有多种方法,但尤其是在机器学习 Machine Learning深度学习 Deep Learning方面的进展引领着各行各业的发展。

AI使机器能够模拟甚至改进人类思维的能力。从自动驾驶汽车的开发到生成式AI工具如ChatGPT和Google的Bard的广泛应用,AI正逐渐成为日常生活的一部分,各行各业的公司都在投资这个领域。

如果,想了解该系列(AI相关)的文章,可以参考我们已经发布的文章。如下是往期文章。

文章list

  1. AI不是终点,恰恰是起点
  2. 在macOS下,利用AIGC:从0搭一个图文生成网站
  3. ChatGPT:你应该知道的知识
  4. Stable Diffusion 是如何运行的

好了,天不早了,干点正事哇。

你能所学到的知识点

  1. AI基础知识
  2. AI的应用
  3. AI的益处、挑战和未来
  4. AI发展简史

1. AI基础知识

理解AI

广义来说,AI系统能够执行与人类认知功能常常相关的任务,如解释语音玩游戏识别模式。它们通常通过处理大量数据来学习如何执行这些任务,寻找模式以在自己的决策过程中建模。

在许多情况下,人类会监督AI的学习过程,加强好的决策并阻止不良决策。但有些AI系统设计成可以在没有监督的情况下学习,例如反复玩一款视频游戏,直到最终弄清规则并学会如何获胜。

AI与弱AI

智能 的定义颇具难度,这也是为什么AI专家通常区分强人工智能 (Strong AI)和弱人工智能 的(Weak AI)原因。

强人工智能

Strong AI,也被称为人工通用智能,是一种可以解决它从未接受过训练的问题的机器,就像人类一样。

这是我们在电影中看到的那种AI,例如,像施瓦辛格饰演的T-101 这种类型的AI目前尚不存在。

创造出一台具备人类水平智能并可以应用于任何任务的机器是许多AI研究人员的终极目标,但追求人工通用智能一直充满了困难。一些人认为,由于创建没有监管的强大AI可能存在潜在风险,因此应限制Strong AI的研究。

Weak AI相比,Strong AI代表着具备一整套认知能力以及同样广泛的用途案例的机器,但是在短期内,人们还没看到实现的希望。

弱人工智能

Weak AI,有时也称为狭义人工智能专用人工智能 ,只能在有限的上下文中运行,是对人类智能的一种模拟,应用于具体定义的问题(例如驾驶汽车、转录人类语音或在网站上策划内容)。

Weak AI通常专注于非常擅长执行单一任务。尽管这些机器可能看起来很智能,但它们在约束和限制方面远远不如最基本的人类智能。

Weak AI的例子包括:

  • SiriAlexa(Amazon的AI产品)和其他智能助手
  • 自动驾驶汽车
  • 谷歌搜索
  • 对话机器人
  • 电子邮件垃圾邮件过滤器
  • Netflix的推荐系统

机器学习 Vs. 深度学习

尽管在讨论AI时经常会提到机器学习 (Machine Learning)和深度学习 (Deep Learning)这两个术语,但它们不应该互换使用。

深度学习机器学习的一种形式,而机器学习则是AI的一个子领域

如果强制的用数学的交集来表示的话: AI>机器学习>深度学习

机器学习

机器学习算法由计算机提供数据,并使用统计技术 来帮助它"学习"如何在某项任务上逐渐变得更加优秀,而不一定是为该任务专门编程的。机器学习算法使用历史数据作为输入来预测新的输出值。为此,机器学习包括

  • 有监督学习(其中由于标记数据集,输入的预期输出是已知的
  • 无监督学习(其中由于使用未标记的数据集,输入的预期输出是未知的

深度学习

深度学习机器学习的一种类型,它通过一个受生物启发的神经网络架构来处理输入数据。神经网络包含多个隐藏层,通过这些层处理数据,使机器能够在学习过程中"深入",建立连接并对输入进行加权以获得最佳结果。

下图是,机器学习和深度学习处理数据的主要步骤


2. AI的应用

AI的四种类型

根据系统能够执行的任务类型和复杂性,AI可以分为四类,它们分别是:

  1. 反应式机器
  2. 有限内存
  3. 心灵理论
  4. 自我意识

反应式机器

反应式机器遵循最基本的AI原则,正如其名称所示,它只能利用其智能感知和对面前的世界做出反应。反应式机器不能存储记忆,因此不能依赖过去的经验来实时决策

直接感知世界意味着反应式机器被设计成只能完成有限数量的专业任务 。有意地限制反应式机器的视野也有其好处:这种类型的AI将更加可靠,对同样的刺激将每次都以相同的方式做出反应。

反应式机器案例

  • Deep BlueIBM在1990年代设计的国际象棋超级计算机 ,它在一场比赛中击败了国际象棋大师加里·卡斯帕罗夫。Deep Blue只能识别国际象棋棋盘上的棋子,根据国际象棋的规则知道每个棋子如何移动,承认每个棋子的当前位置,并确定在那一刻最合乎逻辑的下一步棋是什么。计算机没有追求对手未来潜在的着法,也没有试图把自己的棋子放在更好的位置上。每一轮被视为它自己的现实,与之前做出的任何其他动作都是分开的。

  • 谷歌的AlphaGo也无法评估未来,但依赖自己的神经网络来评估当前游戏的发展,这使它在更复杂的游戏中胜过了Deep Blue。在2017AlphaGo Master3:0战胜了当时世界排名第一的围棋棋手柯洁。(我战鹰表示不服)

有限内存

有限内存AI具有在收集信息和权衡潜在决策时存储先前数据和预测的能力 ,实际上是通过查看过去的线索来预测接下来可能发生的事情 。有限内存的AI反应式机器更复杂,提供了更多的可能性。

有限内存AI是在一个团队不断培训模型如何分析和利用新数据,或者构建了一个AI环境,使模型可以自动训练和更新时创建的。

在机器学习中利用有限内存的AI时,需要遵循六个步骤:

  1. 建立训练数据
  2. 创建机器学习模型
  3. 确保模型可预测
  4. 确保模型可以接收人类或环境的反馈
  5. 将人类和环境反馈存储为数据
  6. 重复上述步骤作为一个循环

心灵理论

心灵理论只是一个理论概念 。我们尚未达到达到下一级AI所需的技术和科学能力。

这个概念基于心理学前提 ,即理解其他生物有思维和情感,影响自己行为的观点。就AI机器而言,这意味着AI可以理解人类、动物和其他机器如何感受和通过自我反思和决心做出决策,然后利用这些信息来做出自己的决策。基本上,机器必须能够掌握和实时处理"思维"概念、决策中情感的波动以及其他心理概念,从而在人与AI之间建立双向关系。

自我意识

一旦心灵理论得以建立,可能会在AI的未来某个时刻,最后一步是使AI变得具有自我意识 。这种类型的AI具有人类级别的意识,了解自己存在于世界中,以及他人的存在和情感状态。它将能够根据不仅是人们对它们所传达的内容,还有他们如何传达这些内容来理解他人可能需要什么。

AI的自我意识依赖于人类研究人员理解意识的前提,然后学习如何复制它,以便可以构建到机器中。

AI实际应用

AI技术采用多种形式,从聊天机器人到导航应用和可穿戴健康追踪器等。

ChatGPT

ChatGPT是一款AI聊天机器人,能够生成各种格式的书面内容,从文章到代码以及对简单问题的回答。由OpenAI于2022年11月发布,ChatGPT由一个大型语言模型驱动,使其能够紧密模仿人类写作。ChatGPT还于2023年5月推出了iOS设备的移动应用版本,于2023年7月推出了Android设备的版本。它只是众多聊天机器人示例之一,国内也有很多。这里就不一一列举了。

地图软件

地图软件(Google/baidu/高德等)使用来自智能手机的位置数据,以及用户报告的关于施工和车祸等信息的数据,来监控交通的流动情况,并评估最快的路线。

智能助手

个人AI助手,如SiriAlexaCortana(microsoft的产品)还有我们引以为豪的华为手机助手hisuite(小名叫小艺),使用自然语言处理(NLP)来接收用户的指令,设置提醒,搜索在线信息,控制家庭照明等。在许多情况下,这些助手被设计成能够学习用户的偏好,并通过更好的建议和更贴身的回应来提高用户的体验。

社交软件滤镜功能

很多社交软件,如微信视频,抖音动画,各种直播动画等使用机器学习算法来区分图像的主题和背景,跟踪面部动作,并根据用户的操作调整屏幕上的图像。

自动驾驶汽车

自动驾驶汽车是深度学习的一个典型示例,因为它们使用深度神经网络来检测周围的物体,确定与其他汽车的距离,识别交通信号等。这块的王者还得特斯拉。(国内的部分厂商也在奋起直追)

别问,问就是遥遥领先

可穿戴设备

医疗保健行业使用的可穿戴传感器和设备也应用深度学习来评估患者的健康状况,包括血糖水平、血压和心率等。它们还可以从患者的先前医疗数据中提取模式,并用于预测未来的健康状况。

MuZero

MuZero是由DeepMind创建的计算机程序,是实现真正人工通用智能的有希望的先驱之一。它通过 brute force(蛮力)的方式,玩了数百万次的游戏,已经掌握了甚至没有被教过的游戏,包括国际象棋和一套完整的Atari游戏。


3. AI的益处、挑战和未来

AI的益处

AI可以说是无孔不入 。根据研究表明,2022年,AI公司筹集了668亿美元的资金,超过了2020年筹集的资金数额的两倍以上。由于其快速的采用,AI正在各种行业引起轰动。

更安全的银行业

在2022年有关银行业中AI的报告发现,超过一半的金融服务公司已经在风险管理和收入生成方面使用AI解决方案 。在银行业中应用AI可能会带来高达4,000亿美元的储蓄。

更好的医学

至于医学,世界卫生组织2021年的一份报告指出,虽然将AI整合到医疗领域面临挑战,但这项技术"具有巨大的潜力",因为它可以带来诸如更明智的健康政策和提高患者诊断准确性等好处。

创新媒体

AI也在娱乐领域大放异彩。根估计,全球媒体和娱乐业的AI市场预计将在2030年达到994.8亿美元,从2021年的108.7亿美元增长。这个扩展包括诸如识别抄袭开发高清图形MJ/SD)等AI应用。

就我身边所看到的例子中,现在国内有些淘宝店已经采用SD生成模特图,然后已经形成一个产业链了。

AI的挑战和局限性

尽管AI被视为一个重要且快速发展的资产,但这个新兴领域也存在一些不利因素。

有研究机构在2021年随机对1万多人进行采访,让他们谈谈对AI的态度。调查结果发现,45%的受访者既感到兴奋又感到担忧,37%的人更担忧。此外,超过40%的受访者表示他们认为无人驾驶汽车对社会有害。然而,利用AI来识别社交媒体上虚假信息的想法得到了更多人的认可,接近40%的受访者认为这是一个好主意。

AI在提高生产效率以及减少人为错误的方面是有巨大的优势。但也存在一些缺点,如开发成本和自动化机器取代人类工作的可能性。然而,值得注意的是,AI产业也有可能创造就业机会,其中一些甚至还没有被发明出来

AI的未来

考虑到AI背后的计算成本和技术数据基础设施,实际执行AI是一项复杂且昂贵的业务。幸运的是,计算技术已经取得了巨大的进步,正如摩尔定律所示,该定律规定微芯片上的晶体管数量大约每两年翻一番,而计算机的成本减半。

尽管许多专家认为,摩尔定律可能在2020年代某个时候结束,但这对现代AI技术产生了重大影响------从经济角度来看,没有这个定律,深度学习将是不可能的。最近的研究发现

AI创新实际上超过了摩尔定律,每六个月左右翻一番,而不是两年

按照这个逻辑,AI在过去几年中在各个行业取得了重大进展。在未来的几十年里,AI可能会产生更大的影响,这似乎是不可避免的。


4. AI发展简史

智能机器和人工存在首次出现在古希腊神话中。亚里士多德的演绎推理发展和其运用的演绎推理是人类探索自身智能的关键时刻。虽然根源悠久,但我们今天所认为的AI的历史跨足不到一个世纪。

以下是AI历史上一些最重要的事件的简要概述。

1940年代

  • (1942年)艾萨克·阿西莫夫发表《机器人三大定律》,这是关于AI不应对人类造成伤害的科幻媒体中常见的想法。
  • (1943年)沃伦·麦卡洛和沃尔特·皮茨发表了题为"嵌入神经活动的思想的逻辑演算"的论文,提出了构建神经网络的第一个数学模型。
  • (1949年)唐纳德·赫布在他的书《行为的组织:一种神经心理学理论》中提出了一种理论,即神经通路是通过经验形成的,神经元之间的连接变得越来越强,使用频率越高 。赫布学习在AI中仍然是一个重要的模型。

1950年代

  • (1950年)艾伦·图灵 发表了题为"计算机器和智能"的论文,提出了现在被称为图灵测试的方法,用于确定一台机器是否具有智能
  • (1950年)哈佛大学本科生马文·明斯基和迪恩·埃德蒙兹建造了SNARC,第一台神经网络计算机。
  • (1950年)克劳德·香农发表了题为"为下棋编程的计算机"的论文。
  • (1952年)阿瑟·塞缪尔开发了一个自学习程序来下跳棋。
  • (1954年)乔治敦大学和IBM进行了机器翻译实验,自动将60个精选的俄语句子翻译成英语。
  • (1956年)在达特茅斯AI夏季研究项目上,首次使用了"AI"这个词汇。由约翰·麦卡锡领导的会议被广泛认为是AI的诞生地。
  • (1956年)艾伦·纽厄尔和赫伯特·西蒙演示了逻辑理论家(LT),这是第一个推理程序。
  • (1958年)约翰·麦卡锡开发了AI编程语言Lisp,并发表了题为"具有常识的程序"的论文,提出了假想的"顾问接受者",一个完整的AI系统,能够像人类一样有效地从经验中学习。
  • (1959年)艾伦·纽厄尔、赫伯特·西蒙和J.C.肖开发了通用问题解决器(GPS),一个旨在模仿人类问题解决的程序。
  • (1959年)赫伯特·盖勒特开发了几何定理证明程序。
  • (1959年)阿瑟·塞缪尔在IBM工作时创造了"机器学习"这个术语。
  • (1959年)约翰·麦卡锡和马文·明斯基创立了麻省理工学院AI项目。

1960年代

  • (1963年)约翰·麦卡锡在斯坦福大学创办了AI实验室。
  • (1966年)美国政府发布了《自动语言处理咨询委员会》(ALPAC)关于机器翻译研究进展不足的报告,这是一项重要的冷战倡议,承诺能够自动瞬间翻译俄语。ALPAC报告导致了所有政府资助的机器翻译项目的取消。
  • (1969年)在斯坦福大学创建了第一批成功的专家系统DENDRAL和MYCIN。

1970年代

  • (1972年)创建了逻辑编程语言PROLOG
  • (1973年)英国政府发布了详细介绍AI研究的失望之处的"莱特希尔报告",导致了对AI项目资金的大幅削减。
  • (1974-1980年)对AI发展进展不满导致DARPA大幅削减学术资助。加上早期的ALPAC报告和前一年的莱特希尔报告,AI资金枯竭,研究陷入停滞。这一时期被称为"第一次AI寒冬"。

1980年代

  • (1980年)数字设备公司开发了R1(也称为XCON),这是第一个成功的商业专家系统。R1旨在为新计算机系统的订单配置,它引发了专家系统的投资热潮,该热潮将持续大部分十年,有效地结束了第一次AI寒冬。
  • (1982年)日本国际贸易与工业部启动了雄心勃勃的第五代计算机系统项目。FGCS的目标是开发类似超级计算机性能的平台,以支持AI的发展。
  • (1983年)为了应对日本的FGCS,美国政府启动了战略计算计划,提供了DARPA资助的先进计算和AI研究。
  • (1985年)公司每年在专家系统上花费超过十亿美元,整个行业被称为Lisp机器市场崭露头角,以支持这些系统。像Symbolics和Lisp Machines Inc.这样的公司构建了专门的计算机来运行AI编程语言Lisp。
  • (1987-1993年)随着计算技术的改善,出现了更便宜的替代品,1987年Lisp机器市场崩溃,引发了"第二次AI寒冬"。在此期间,专家系统的维护和更新成本太高,最终失宠。

1990年代

  • (1991年)美国部队在海湾战争期间部署了DART,一种自动化的后勤规划和调度工具。
  • (1992年)日本在1992年终止了FGCS项目,称其未能实现十年前规划的宏伟目标。
  • (1993年)DARPA在1993年结束了战略计算计划,耗资近10亿美元,远远未达预期目标。
  • (1997年)IBM的深蓝战胜了世界国际象棋冠军加里·卡斯帕罗夫。

2000年代

  • (2005年)STANLEY,一辆自动驾驶汽车,赢得了DARPA大挑战。
  • (2005年)美国军方开始投资于像波士顿动力的"大狗"和iRobot的"PackBot"等自主机器人。
  • (2008年)Google在语音识别方面取得突破,并将此功能引入其iPhone应用程序。

2010年代

  • (2011年)IBM的沃森在"危险边缘!"上轻松击败了竞争对手。
  • 2011年苹果 通过其iOS操作系统发布了Siri一款由AI驱动的虚拟助手
  • (2012年)Google Brain深度学习项目的创始人安德鲁·吴使用深度学习算法向神经网络提供了1000万个YouTube视频作为训练集。这个神经网络学会了识别猫,而没有被告知什么是猫,开启了神经网络和深度学习资金的突破时代。
  • (2014年)Google制造的第一辆自动驾驶汽车通过了州级驾驶测试。
  • (2014年)亚马逊 发布了虚拟家庭智能设备Alexa
  • (2016年)Google DeepMind的AlphaGo击败了世界冠军围棋选手李世石。这个古老的中国游戏的复杂性被认为是AI需要克服的一个重大障碍。
  • (2016年)第一个"机器公民"Sophia问世,这是一个名为汉森机器人的人形机器人,能够进行面部识别、口头沟通和面部表情。
  • (2018年)Google发布了自然语言处理引擎BERT,降低了机器学习应用的翻译和理解障碍。
  • (2018年)Waymo推出了Waymo One服务,允许凤凰城大都市区的用户请求公司的自动驾驶汽车之一来接他们。

2020年代

  • (2020年)百度 发布了其LinearFoldAI算法,供科学和医疗团队在SARS-CoV-2大流行的早期阶段开发疫苗时使用。该算法能够在短短27秒内预测病毒的RNA序列,比其他方法快120倍。
  • (2020年)OpenAI 发布了自然语言处理模型GPT-3,该模型能够生成模仿人们说话和写作方式的文本
  • (2021年)OpenAI在GPT-3的基础上开发了DALL-E,能够根据文本提示创建图像
  • (2022年)美国国家标准与技术研究院发布了其AI风险管理框架的第一份草案,这是美国自愿性指导,旨在"更好地管理与AI相关的个人、组织和社会风险。"
  • (2022年)DeepMind 推出了Gato,一个经过训练的AI系统,能够执行数百项任务,包括玩Atari游戏、给图像加注释和使用机械臂堆叠积木。
  • (2022年)OpenAI推出了ChatGPT,一个由大型语言模型驱动的聊天机器人,在短短几个月内获得了超过1亿用户。
  • (2023年)微软推出了一款基于ChatGPT使用的技术构建的AI版本的必应搜索引擎
  • (2023年)谷歌 宣布推出Bard,一款竞争性的对话型AI
  • (2023年)OpenAI推出了GPT-4,这是迄今为止其最复杂的语言模型。

可以说,在2023年,国内也不断涌现出让人眼花缭乱的AI产品。2023年算的上是,国内AI元年。无论是否是从0-1,还是从1-100。 毕竟,百家争鸣,百花齐放才是一个良好的环境。

希望,我们的AI市场能够越来越好,而作为历史见证者的我们,也希望能搭上这个风口,能够大浪淘沙,找到适合自己的位置。

后记

分享是一种态度

全文完,既然看到这里了,如果觉得不错,随手点个赞和"在看"吧。

相关推荐
DREAM依旧3 分钟前
隐马尔科夫模型|前向算法|Viterbi 算法
人工智能
GocNeverGiveUp16 分钟前
机器学习2-NumPy
人工智能·机器学习·numpy
B站计算机毕业设计超人1 小时前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
学术头条1 小时前
清华、智谱团队:探索 RLHF 的 scaling laws
人工智能·深度学习·算法·机器学习·语言模型·计算语言学
18号房客1 小时前
一个简单的机器学习实战例程,使用Scikit-Learn库来完成一个常见的分类任务——**鸢尾花数据集(Iris Dataset)**的分类
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·sklearn
feifeikon1 小时前
机器学习DAY3 : 线性回归与最小二乘法与sklearn实现 (线性回归完)
人工智能·机器学习·线性回归
游客5201 小时前
opencv中的常用的100个API
图像处理·人工智能·python·opencv·计算机视觉
古希腊掌管学习的神1 小时前
[机器学习]sklearn入门指南(2)
人工智能·机器学习·sklearn
凡人的AI工具箱2 小时前
每天40分玩转Django:Django国际化
数据库·人工智能·后端·python·django·sqlite
咸鱼桨2 小时前
《庐山派从入门到...》PWM板载蜂鸣器
人工智能·windows·python·k230·庐山派