
| 🔭 个人主页: 散峰而望 |
|---|
《C语言:从基础到进阶》《编程工具的下载和使用》《C语言刷题》《算法竞赛从入门到获奖》《人工智能AI学习》
愿为出海月,不做归山云
🎬博主简介



文章目录
- 前言
- [1. 人工智能概念](#1. 人工智能概念)
- [2. 人工智能发展史](#2. 人工智能发展史)
- [3. 核心技术分支:支撑智能的四大支柱](#3. 核心技术分支:支撑智能的四大支柱)
- [4. 主要应用领域:人工智能+](#4. 主要应用领域:人工智能+)
- [5. 程序员是否会被AI取代](#5. 程序员是否会被AI取代)
- [6. 未来展望:在机遇与挑战中行稳致远](#6. 未来展望:在机遇与挑战中行稳致远)
- 结语
前言
推开未来之门,一串串代码与数据正编织着人类最激动人心的篇章。今天,人工智能已走出实验室,悄然融入你我生活的脉搏,从指尖的每一次触达,到关乎文明的重大决策。理解AI,不仅是洞察时代的密码,更是与未来共舞的第一步------它并非遥不可及的神话,而是我们正在共同书写的、触手可及的现实。让我们一同探寻这场智慧革命的起源、内核与无限可能。
1. 人工智能概念
人工智能 ,即 Artificial Intelligence,简称 AI,研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的技术科学,是计算机科学的一个分支。旨在让计算机或机器能模仿人类的思维和行为,能看、能听、能说、能学习、能决策 ,核心本质从一个简单的命令执行者,变成一个可以感知、理解、推理、学习等服务与人类的"智慧"伙伴。
同时人工智能又分弱人工智能(Narrow AI) 、强人工智能(Artificial General Intelligence, AGI) 、超级人工智能(Artificial Superintelligence, ASI)
- 弱人工智能(Narrow AI): 这是我们目前所处的主流阶段。指擅长处理单一特定任务的AI系统。它在这个特定领域内可以表现得非常出色,甚至超越人类,但无法将能力迁移到其他领域。
· 例子: 图像识别软件、语音助手(如Siri)、围棋程序 AlphaGo、推荐算法、自动驾驶(特定场景)。它们下棋的不会翻译,翻译的不会开车。 - 强人工智能(Artificial General Intelligence, AGI): 指具备与人类同等或超越人类的通用智能的 AI。它能够理解、学习、规划并执行任何人类能够完成的智力任务,具备自我意识、常识和跨领域迁移学习的能力。
· 现状: 目前尚未实现,是 AI 研究的终极目标之一。 - 超级人工智能(Artificial Superintelligence, ASI): 指在几乎所有领域都比最聪明的人类大脑更聪明的 AI。这属于科幻和未来学探讨的范畴。
为了让机器具有人工智能的能力,需要先让机器看更多的资料去学习,自己总结规律,最后具备预测的能力。
比如想要教计算机智能地识别狗,先给列出大量的相关狗的图片或描述。




可以按照下面步骤来:
- 人工提取特征:你需要像一个老师一样,先告诉机器,"要看一只狗,你主要检查是否有一个湿润的、突出的黑色或棕色的鼻子、耳朵的形状和位置、尾巴的长度和姿态(翘起、摇摆、卷起)、有没有胡须、眼睛的形状、毛发的长度和纹理"等特征
- 选择模型:选择一个合适的机器学习模型
- 训练:把准备好的"狗"和"非狗"的图片喂给模型,每张图片都用定义好的特征(湿鼻子、胡须等)描述好
- 预测:模型学习后,看到新图片,就会去检查这些预设的特征,然后判断,如果符合狗的特征则就是狗
上面的方式就是机器学习,给模型看图片让它自己学。但有一定局限性,因为模型是基于人工提取的特征学习的,如果一张狗的图片是侧面的看不到胡须,或者耳朵折起来了,机器可能就认不出来。

那如果不用人工提取特征,而是:
-
端到端学习:把最原始的像素数据(即图片本身)和标签("这是狗"、"这不是狗")直接扔给一个叫做神经网络模型
-
自动提取特征 :神经网络结构非常复杂,有很多层(深度),它会自己从像素中,由低到高、由抽象到具体地自动学习出狗的特征:
◦ 底层 :选学会认识一些边缘、⻆落、颜色
◦ 中层 :组合底层特征,学会识别纹理、形状、眼睛、耳朵
◦ 高层:结合中层特征,最终形成"狗脸"、"狗的身体"等抽象概念
-
预测:训练好后,它看到新的图片,就会动用自己学到的这一套从简单到复杂的特征(层级体系)来进行判断

这个就是深度学习。对于侧面、遮挡、奇怪姿势的狗,深度学习模型因为它自己学习的特征更丰富、更本质,所以识别能力通常远强于传统机器学习方法。
所以,想要让机器像人一样去识别狗的图片,可以通过看海量图片学习,即机器学习,而完成这个任务最有效的方式就是深度学习。现在大家所看到的酷炫的AI应用,比如人脸识别、语音助手、自动驾驶等,背后都是AI--->ML-->DL的技术在发挥作用。
因此一个机器,如果学习大量的数据之后,具备推理预测能力时,我们就可以认为该机器具备人工智能的能力。
而现在 ChatGPT、DeepSeek 等,都是基于 Transformer 架构的神经网络模型,投喂海量的数据(网页、书籍、文章)等供模型学习,让模型构建自己的知识库,并具备思考、推理、决策能力,最终成为现在 ChatGPT、DeepSeek 等人工智能大语言模型产品。
2. 人工智能发展史
在更早的时期,在人类的想象和对机器的向往中,已经埋下了人工智能的影子和思想萌芽。比如战国时期《列子汤问》中就收录了一片文章《偃师献技》
偃师带来了一个他制造的"倡者"(即歌舞艺人)。这个假人能够自如地唱歌跳舞,动作姿态与真人无异。甚至在对周穆王的妃子眉目传情时,惹得穆王大怒,认为偃师用真人欺骗他。偃师为了证明,立刻将这个假人拆解,展示其内部完全是由皮革、木头、胶漆、以及黑、白、丹、⻘等颜料构成的机关人偶。周穆王这才惊叹道:"人之巧乃可与造化者同功乎?"

一. AI 兴起(1941 - 1956):人工智能诞生
- 1936 年:阿兰·图灵(Alan Turing)发表了《论可计算数及其在判定问题中的应用》,为人工智能的理论基础奠定了重要一步。

- 1943 年 ,神经学家沃伦·⻨卡洛克和数学家沃尔特·皮茨在 1943 年提出了人工神经元模型,用数学方法模拟生物神经元网络,证明简单的神经网络可以实现基本的逻辑功能。

假设你现在是一名 C/C++ 方向在校学习者,已经将其学完,并做出一两个项目,你现在准备找实习,而你感觉自己没有复习好,知识点忘记了,在犹豫是否要找实习。假设将找实习的事情交给人工神经网络模型决策,那就需要先输入给模型一些信号(X)和权重(W),比如:
如:
-
x1 = 知识储备现状 :学完【C语言 + 数据结构 + C++ + 操作系统 + 网络 + 数据库,且还做过小项目
权重 w1 = +7,极强正权重,因为这些技能是企业所需要的,能够找实习的资本 -
x2 = 实习经历 :找实习欲望不高,但实习经历非常重要
权重 w2 = +8,实习经历企业非常认可,尤其是大厂实习经历,能大大提高简历通过率 -
x3 = 时间窗口优势 :大二或大三,正是找暑期实习的黄金阶段
权重 w3 = +9,暑期实习表现好很容易转正,直接解决就业,避免挤秋招 -
x4 = 自我怀疑、惰性拖延阻力 :感觉自己没有复习好,知识点忘记
权重 w4 = -5,拖延是行动最大的敌人,知识点忘记是正常的,而通过面试检测自己成长是非常快
激活函数阈值设定为 15。将所有输入权值求和后,总分超过 15,这个神经元就被激活,输出去找实习的决定。
人工神经元模型的核心部分
- 输入:就像树突,接收来自外界或其他神经元的信息
- 权重:每个输入都有一个权重,代表这个输入的重要程度。学习的过程,主要就是调整这些权重大小的过程。
- 求和:把每个输入对应权值全部加起来
- 激活函数:检查求和后的总值是否超过某个"阈值",超过就产生响应;否则就不响应,以实现"开关"特性。
- 输出:就向轴突,将决策结果(0或1)传递出去,给下一个神经元
这个模型成为了后来所有人工神经网络和深度学习的基石
- 1950 年 ,艾伦图灵在其《计算机与智能》论文中提出注明的"图灵测试"
◦ 场景设置:有一个测试者(人类),和两个被测试对象,其中一个被测试对象是真人,另一个是一个计算机程序(AI)。这两个对象在一个看不⻅的房间里,测试者测试者只能通过电脑屏幕与他们用文字交流。
◦ 游戏目标:测试者的任务就是通过一系列提问和对话,最终判断出哪个是真的人,哪个是机器。
◦ 获胜条件:如果测试者经常错误地将机器判断为人,或者说机器成功"欺骗"了测试者,那么我们就说这台机器通过了图灵测试

比如:你向两个房间提问 1234567 + 7654321 等于多少?
A 房间会话你:等于 8888888
B 房间回答你:我现在不想算
你现在能区分清那个房间时机器,哪个房间时真人吗?如果无法区分,那这台机器就通过了图灵测试。
图灵的想法很实用:别管它内部是怎么运作的,只要它的行为表现得和人一样智能,我们就当它是智能的。
1956 年图灵的这篇文章以"机器能够思考吗?"为题重新发表。
- 1956 年,在美国达特茅斯学院汇聚了那个时代最聪明的一批人,他们坐在一起开了个会,会议主题是"试图让机器精确模拟学习或其他智能行为",该次会议也被称作"AI的宪法会议",约翰·麦卡锡首次提出"人工智能"一词。

二. AI 早期成功(1956 - 1974)
- 1959 年,亚瑟·塞缪尔开发了首个自学习程序-西洋跳棋程序,并引入了"机器学习"这一概念

- 1966 年,约瑟夫·魏岑保姆开发了一个能力处理自然语言的聊天程序 ELIZA,据说是第一个能够尝试图灵测试的程序,展示了机器和人类自然语言交流的可能性。

号称心理治疗师,比如:
你说:我很烦恼
ELIZA:你会经常烦恼吗?
ELIZA用程序的方式模拟提问,形成一种心理咨询的效果,其实就是模式匹配,号称心理治疗师。
虽然简单,但是给人感觉机器很懂我。
- 1970年,第一个拟人机器人 WABOT-1 在日本早稻田大学建成。它由一个肢体控制系统、视觉系统和一个对话系统组成。

首次将视觉、触觉、移动和对话能力整合到一个拟人化的平台上。它确立了"人形机器人"作为一个综合性研究领域的地位。
三. AI 第一次寒冬:神经网络预冷,研究经费减少(1974 - 1980)
上世纪 60 年代末到 70 年代初,人工智能开始从高峰走向低估,因为早起雄心勃勃的 AI 项目没有兑现,政府和资方对 AI 的耐心逐渐耗尽,大笔研究经费被削减甚至叫停:
- 机器翻译碰壁
- 大西洋彼岸质疑
- 军方撤资
- 学术批评
上述原因交织在一起,导致 70 年代中期 AI 研究陷入停滞,AI 项目被砍,研究经费锐减,年轻人才专项爱过你别的领域,只有少数学者在坚守阵地。
四. AI 复兴与第二次寒冬(1980 - 1993)
AI 领域出现复苏的迹象主要是由于:
- 专家系统在工业界的成功应用
- 机器学习思想兴起
专家系统就是模拟人类专家决策的计算机系统,它把专家的知识和经验编程规则存进电脑里,然后向专家一样分析问题并给出建议。
专家系统的核心组成:
- 知识库:类似专家的大脑,里面存储了许多"如果-那么"的规则和专业知识
- 推理机:类似专家的思维过程。它负责提问、根据用戶回答去知识库查找匹配规则,进行逻辑推理并得出答案
- 用户界面:和系统对话的窗口
但好景不长专家系统的局限性逐渐暴露,他们的开发和维护成本高,需要专家不断提供规则,无法自动学习新知识;其次系统脆弱,一旦遇到超出规则范围的情况可能犯荒唐的错误。
随着微型计算机性能提升,性能逐渐超越运行专家系统的 AI 工作站,大量 AI 创业公司在短时间内破产或被收购,兔子人兴趣转移,到 1993 年前后超过 300 加 AI 公司关门,迎来了 AI 的第二次寒冬。
庆幸的是 AI 技术并未止步不前,而在其他领域悄然发展,比如:数据挖掘、工业机器人、语音识别、搜索引擎都在 90 年代获得突破性进展。
1991 年,互联网的出现使在线连接和数据共享成为可能,无论你是谁,无论你在哪里。由于数据是人工智能的燃料,这在以后将被理解为人工智能的一个关键时刻。
五. AI 崛起:深度学习理论和工程突破(1993 - 至今)
- 1997 年,IBM 的深蓝(Deep Blue)战胜了国际象棋冠军卡斯帕罗夫,成为首个在标准比赛时限内击败国际象棋世界冠军的电脑系统。

- 2000 年 ,麻省理工学院的辛西娅-布雷泽尔开发了 Kismet,一种能够识别并模拟人类情绪的机器人。

- 2006 年,杰弗里·辛顿等人发表重要论文《Reducing the dimensionality of data with neural networks(用神经网络降低数据维数)》,提出了深度置信网络(Deep Belief Network),为深度学习的发展奠定了基础。杰弗里·辛顿也被称为深度学习教父。

- 2006 年,英伟达推出 CUDA (统一计算架构),GPU 开始用于解决商业、工业以及科学方面的复杂计算,GPU 与深度学习结合,模型的训练速度有了数量级的提升

◦ CPU(中央处理器):像是一个博学的老教授。他非常聪明,什么复杂任务都能处理,比如操作系统、办公软件,但一次只能处理一两件事(核心数少)。让他去数一亿粒米,他会数得很精确,但速度非常慢。
◦ GPU(图形处理器):最初是为游戏和图形渲染设计的。它像是一万名小学生。每个小学生都不如老教授聪明,只能执行非常简单的指令(比如算术题)。但让他们同时去数一亿粒米,每人分一点,瞬间就数完了。
AI计算(尤其是深度学习)的本质是什么?
就是海量的、高度重复的矩阵乘法和加法。比如,识别一张猫的图片,需要将数百万个像素值与神经网络中数百万个参数进行乘法和加法运算。这个过程不需要一个"老教授"去深度思考,恰恰需要"一万名小学生"同时进行简单的计算。GPU 的并行计算架构完美匹配了AI 计算的需求。
更重要的是英伟达还发明了CUDA(Computer Unified Device Architecture,统一计算机架构),构建了一整个AI生态系统。CUDA是一个软件平台,它允许程序员和研究人员用熟悉的编程语言(如C++、Python)直接调用GPU的强大算力来进行通用计算。
今天所有震撼世界的 AI 产品,如 ChatGPT、Sora 等,它们的训练和运行都完全依赖与数万甚至数十万颗GPU组成的超级计算机,没有这个算力基础,当前的大模型就不可能存在。英伟达是 AI 时代的"卖铲人"。当全世界都在疯狂淘金(开发AI)时,英伟达提供了最好用、几乎是唯一的"铲子"(GPU+CUDA),从而成为了整个浪潮中最大的赢家之一。
- 2012年,谷歌"Google Brain"项目的研究人员吴恩达、杰夫·迪恩等人,也捣鼓了一个神经网络(10亿参数),用来训练对猫的识别。他们用 16000 个 CPU 核心构建了一个巨大的神经网络,在没有任何先验知识的情况下,仅仅通过观看 YouTube 视频,就自发地识别出了"猫"。这个实验让工业界第一次大规模地看到了深度学习的惊人潜力。
2015年,Google Brain 团队正式发布 TensorFlow 机器学习框架,提供了一整套用戶构建和训练机器学习模型的工具、库和社区资源,由于其通用性和强大功能,被广泛应用于计算机视觉、自然语言处理、语音处理、推荐系统等。TensorFlow 作为基础工具基石,其应用领域几乎涵盖了 AI 的方方面面。
2017年,Google AI团队在论文《Attention Is All You Need》中首次提供了Transformer 模型架构,论文发布后其参考实现代码页随之公开,并迅速被纳入TensorFlow、PyTorch 等框架的官方库和教程中。Transformer 的诞生,为后续几乎所有大型语言模型提供了最基础也最关键的架构蓝图。现在 DeepSeek、ChatGPT、Gemini 基本都是基于 Transformer 实现的。
- AlphaGo战胜人类顶尖围棋选手
- 2022年11月30日,ChatGPT 发布,彻底突破科技圈,它提供了一个及其简单、自然、免费的聊天界面,任何人无需技术背景,都能直接与其互动。它能写诗、写代码、解数学题、编故事,回答各种问题,震惊了无数人。用戶们开始在各种社交平台,病毒式分享自己与 ChatGPT 对话的惊人截图,短短 5 天内,ChatGPT 的用戶就图片 100 万。
此后,各大科技公司(Google、微软、Meta、亚马逊以及中国的百度、阿里、深度求索等)全部加速入场,发布了各自的竞品(如 Gemini、Claude、LLaMA、文心一言、通义千问、DeepSeek 等),将这场热潮持续推高,形成了今天我们看到的"百模大战"格局。

3. 核心技术分支:支撑智能的四大支柱
现代 AI 的繁荣建立在几个关键的技术分支之上,它们共同构成了 AI 的能力骨架。前面已经在 AI 的发展史中讲了一下,这里简单了解即可。
-
机器学习
这是AI的核心引擎,其理念是让计算机从数据中自动学习规律,而无需被明确编程。它就像一个能从海量病例中自行总结诊断规律的学生。
-
深度学习
机器学习中最强大的子集,它使用类似于人脑神经元的深度神经网络来处理数据。其最大优势是能自动从原始数据(如图像像素)中提取复杂的特征。
- 代表算法:卷积神经网络(CNN),是计算机视觉的基石。
-
计算机视觉
赋予机器"看"的能力,包括图像识别、人脸识别、自动驾驶感知等。它已从实验室走向广泛的应用市场。
-
自然语言处理
让机器理解、生成人类语言,实现人机自然交流。它是智能客服、机器翻译和当前大语言模型(如 ChatGPT)的基础。其核心挑战在于消除语言的歧义性。
4. 主要应用领域:人工智能+
AI不再只是概念,而是像水和电一样,成为各行各业的基础设施。
-
智能制造
工厂通过 AI 实现"柔性生产",优化流程,按需定制,降低库存。工业机器人能完成精密装配、高危作业。
-
智慧医疗
AI 医学影像辅助诊断(如CT片分析)、加速药物研发、提供个性化健康管理方案。
-
智能金融
用于信贷风险自动评估、交易欺诈实时检测、量化投资以及提供智能投顾服务。
-
智能安防与交通
人脸识别、车辆识别技术广泛应用于安防监控;自动驾驶技术正在重塑交通出行。
-
数字生活
智能手机上的语音助手、相册自动分类、购物网站的个性化推荐、社交媒体上的内容生成,都是AI在日常生活中的体现。
5. 程序员是否会被AI取代
我们经常在网上可以看到一些博主说:
- 某款AI编程IDE写代码非常丝滑,自己一行代码不写就完成了某个应用
- 不懂任何代码,通过向AI输入提示词,完成某个应用
- AI 替代程序员真的要来了,公司 20% 的代码已由 AI 生成,公司计划裁员...
- AI 来了,程序员天踏了;AI 当立、编程已死...
不可否认AI正在深刻改变编程工作,但并非简单的取代,而是一场职业重塑。要理解这一点,我们可以从以下几个层面来看:
AI带来的效率革命与冲击
- 效率工具:AI编程助手能自动生成代码块、修复bug、编写注释,像一位不知疲倦的结对程序员。有从业者表示,目前 60-70% 的代码可由 AI 生成,从而将精力转移到更高层次的设计和架构上。
- 现实冲击:多家科技巨头(如惠普、IBM、亚马逊)的裁员显示,后台支持、客服、部分初级编程等高度标准化、重复性的岗位正被 AI 自动化。同时,AI 提升了整体人效,可能导致企业用更少的员工完成相同的工作量。
同时我们可以询问世界几个顶尖的的 AI 大语言模型:


给出的答案皆是:AI 不可能直接代替程序员
AI 只是工具,如果想要不被时代淘汰,那么了解和学习 AI 无疑是很好的抉择。
中国科普网的一片文章:http://www.kepu.gov.cn/newspaper/2024-03/15/content_183874.html
以后发展会是什么样,历史又会走向何处,这都是不可预测的。谁又知道何处的蝴蝶只是轻轻振动翅膀,又会带动何处的浪花。总而言之,打得过就打,打不过就加入,你可能就业的不是 AI 相关领域,但是你不能不懂 AI 相关技术。
6. 未来展望:在机遇与挑战中行稳致远
AI 的发展是国家的重要战略目标,曾指出
- 到2020年
◇人工智能总体技术和应用与世界先进水平同步
◇区工智能产业成为新的重要经济增长点
◇人工智能技术应用成为改善民生的新途径- 到2025年
◇人工智能基础理论实现重大突破
◇部分技术与应用达到世界领先水平
◇人工智能成为我国产业升级和经济转型的主要动力
◇智能社会建设取得积极进展- 到2030年
◇人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心
展望未来,AI 的发展将是技术的深度融合与通用智能。
- "人工智能+"深化:AI 将从单一功能的基础应用,走向与产业核心痛点结合的深度应用。例如,在农业中预测病虫害、在能源领域优化电网调度。
- 多模态融合:未来的 AI 系统将能同时理解文字、图像、声音、视频等多种信息,像人类一样通过综合感官认识世界。
- 迈向通用人工智能:尽管道路漫长,但让 AI 具备跨领域学习和解决复杂问题的通用能力,始终是研究的终极目标之一。

结语
希望这篇文章使各位对人工智能概念、人工智能发展史、核心技术分支、主要应用领域有着更明确的了解和认知,从而有着更大的勇气从了解 AI,到学习 AI,再到玩转 AI 的飞跃。
同时愿诸君能一起共渡重重浪,终见缛彩遥分地,繁光远缀天。

