《AI换脸时代的攻防暗战:从技术滥用走向可信未来》

技术迭代图谱

过去五年里,Deepfake技术经历了飞速迭代,从最初的萌芽到如今的广泛应用和对抗措施形成。2017年前后 ,利用深度学习进行人脸换装的技术首次在社区中出现。一位Reddit网友昵称"deepfakes",将名人面孔替换到色情影片上,引发关注由此,"Deepfake"一词诞生于2017年底,并迅速传播。早期的Deepfake视频质量较粗糙,但由于开源社区的共享,技术进步很快 2018年 ,出现了用户友好的制作工具(如FakeApp等),让非专业人士也能生成简单的换脸视频。社交平台开始注意到这类内容,Reddit、推特等在2018年相继禁止非自愿色情换脸等Deepfake滥用。

2019年 是技术提升和引发讨论的关键时期。一方面,学术界和产业界的协作使得人脸合成的逼真度大幅提高,开源的DeepFaceLab工具声称其软件生成了全球95%以上的Deepfake视频。另一方面,Deepfake开始走出"小圈子",进入大众视野。例如,艺术家制作的扎克伯格假演讲 视频在社交媒体上传播,探讨数据隐私和技术伦理,同年,一款中国换脸应用"ZAO"走红,在短时间内吸引大量用户体验AI换脸,展示了Deepfake的平民化潜力。技术上,2019年的深度伪造视频在清晰度、嘴型同步等方面比早期显著改进。此外,荷兰初创公司Deeptrace发布报告指出截至2019年网络上的Deepfake视频约有14,678个,短短半年内数量几乎翻倍96%的Deepfake视频为色情内容。主要涉及将女明星脸替换到情色片中。这份报告和随之而来的讨论促使各界正视Deepfake带来的伦理和法律问题。同年10月,美国加州通过法律,禁止在大选前60天内散布针对政治候选人的Deepfake假视频,并允许报复色情Deepfake的受害者起诉肇事者2020-2021年 ,Deepfake技术进入快速发展和应用拓宽阶段 。生成对抗网络(GAN)和自动编码器等算法的改进,让人脸合成更加栩栩如生;甚至普通用户也可以通过手机应用生成换脸短视频。2020年,MIT等机构推出了名为《万一登月失败(In Event of Moon Disaster) 》的深fake短片,假想尼克松发表载人登月失败的演说,以假乱真的效果令观众震撼。这类创意项目提高了公众对Deepfake的认知和警惕。同年,为了应对美国大选中可能出现的Deepfake扰乱,Facebook、微软等支持了Deepfake检测挑战赛 ,邀请全球研究者开发检测算法。然而结果显示,即使是最先进的检测器,在应对全新Deepfake时准确率也仅六成多,攻防依然胶着。2021年 ,一系列娱乐化的Deepfake走红网络,证明技术已相当逼真。其中**"伪汤姆·克鲁斯"在TikTok发布多段短视频,以假乱真的表演迷惑了大量观众,累计播放量超过 1100万次**,这一现象级事件表明Deepfake已从"小众恶搞"演变为大众娱乐 的一部分。同时,实时Deepfake技术出现突破,一些开发者演示了实时视频通话换脸,可在直播中扮演他人。这进一步引发了对身份认证和视讯真实性的担忧。

2022-2023年 ,伴随生成式AI整体的进步,Deepfake技术更加易用和多样 。文本生成图像(如扩散模型Stable Diffusion)与人脸交换技术相结合,使得合成虚假视频/音频变得前所未有地方便。仅需几分钟的视频素材和少量录音,AI就能克隆一个人的样貌和声音 。中国科技公司腾讯于2023年推出了**"数字人"定制服务**,用户提交约3分钟真人视频和100句语音,支付相应费用,24小时内即可生成高度逼真的数字分身,用于直播讲解等,这一Deepfake即服务(DFaaS)的商业化,表明大型公司也开始参与规范地提供合成媒体技术。在西方,创业公司如Synthesia等提供AI合成主播,帮助企业制作培训影片。可以说,截至最近,Deepfake技术已经从研究走向产业:开源社区、学术机构和科技企业都做出了重要贡献。一方面,大学和研究所(如华盛顿大学的口型同步研究、韩国的显微表情研究等)不断攻克生成逼真度的难题;另一方面,大公司提供算力和平台,推动Deepfake生成和检测工具的发展。技术演进的另一面是对抗:随着生成能力提升,各类检测技术也在同步研发,我们将在下文详述。

社会影响量化

Deepfake技术的扩散对政治舆论和金融安全产生了显著影响,近年已出现多起案例和数据可供量化分析。

政治领域的应用与影响

在政治领域,Deepfake被视为潜在的信息武器 ,尤其引发对选举和舆论操纵的担忧。美国大选 成为关注焦点:在2020年总统大选前后,媒体和专家反复警示"造假视频"可能扰乱选情。然而事实证明,当时真正投入传播的Deepfake并不多,更普遍的是低技术造假 (俗称"cheap fake"或普通视频剪辑误导)。一个著名例子是2019年5月网上流传的美国众议院议长南希·佩洛西被篡改视频 :片段经过减慢处理,使她说话显得口齿不清、精神恍惚。尽管这不属于AI生成的Deepfake,而是简单编辑,但其影响巨大。Facebook上该视频在短时间内获得约250万次观看 甚至被一些政治对手用来质疑佩洛西的状态。社交平台最后虽未删除此视频,但降低了其推荐优先级,并贴上事实核查标签,这一事件凸显了Deepfake相关技术对政治的冲击:不仅完全AI生成的视频,哪怕一般篡改也能误导大批受众。

真正的AI合成Deepfake在近年政治中开始出现苗头。例如,2022年俄乌战争期间,一段伪造的乌克兰总统泽连斯基讲话视频在网络传播,内容是呼吁乌军放下武器投降。这被证实为Deepfake伪造的信息战手段,虽然大多数民众未被其迷惑,但仍短暂出现在社交媒体和电视字幕中,造成混乱。进入2024年选举季 ,生成式AI工具更普及,美国已有用于政治攻击的Deepfake案例出现:如某些竞选广告利用AI模拟对手的声音或形象发表煽动性言论。不过,最新研究发现大规模AI假信息尚未主导选举舆论 。普林斯顿大学等对2024年各国选举中的AI应用统计显示,已知的选举Deepfake事件仅有百余起 ,与传统手段相比规模有限,而且在2024年美国大选相关的不实信息中,非AI合成的"低级伪造"出现频率是Deepfake的7倍,换言之,目前政治领域的造假仍以剪辑、移花接木等低技术手段为主,真正完全AI生成的视频相对少见。这可能有两方面原因:一是Deepfake制作尚需投入,一般造谣者往往选择更省事的方法;二是公众和媒体对视频真实性的警惕提高,完全的Deepfake更易被鉴别和引发公愤。

尽管如此,Deepfake在政治上的潜在威胁不容忽视 。想象一个场景:选前爆出候选人"视频",画面声音有模有样地展示其不当行为,即使事后证伪,公众信任也已受损。这种风险被称为**"造假者的红利"(liar's dividend):坏人既可用Deepfake欺骗,又可借存在Deepfake之名否认真实的视频。在全球范围,政府已开始重视这一问题。比如 中国颁布法规要求显著标识AI生成的政治类影音,以防谣言混淆视听 ([AIGC风控前瞻:给数据标上"水印" 全链、多维度"排雷"! | AIGC工具导航]。 美国 国会也曾就Deepfake干预选举举行听证,并有州立法禁止选举前散播有意误导的。社交媒体公司方面,Facebook、Twitter等自2019年起制定了"操纵媒体"政策,对于经过AI换脸的政治人物假视频会进行标签警告或删除处理。在接下来的选举中,Deepfake既可能被不法者用来 抹黑对手或散布谣言**,也可能被正义方面用作讽刺和教育 (如用Deepfake引导公众提高辨识力)。目前来看,其社会影响还没有大规模爆发,但各方已严阵以待,通过技术手段和宣传教育来防范Deepfake干扰民主进程

金融诈骗中的Deepfake

在金融和犯罪领域,Deepfake技术已经成为不法分子的新工具,带来了实实在在的经济损失。近五年内,全球多地发生了多起利用AI合成音视频进行诈骗的案件,涉案金额巨大,引起企业和执法机构的高度警觉。

音频仿冒诈骗 是较早出现的Deepfake犯罪形式。2019年,一家公司高管接到"上司"来电,要求紧急转账,电话里领导熟悉的声音让他深信不疑,结果汇出约24万欧元 后才发现声音是AI克隆的假冒。这类利用AI换声 (voice cloning)的骗局在此后越来越多。2020年报道的一起案例中,迪拜的银行经理被伪装成客户的人工智能语音和伪造邮件欺骗,批准了3500万美元 的转账,而2023年 甚至发生了用实时视频Deepfake 进行诈骗的事件:香港一家公司的财务人员参加了一个与公司高管的视频会议,对方音容笑貌无懈可击,指示其进行一笔巨额资金转账。事后发现,所谓"高管"竟是骗子用AI实时生成的假视频,把受害人和同事都骗过了,导致2500万美元资金被骗走,这被认为是迄今金额最大的Deepfake诈骗案件之一。

除了企业财务欺诈,Deepfake还被用于伪造证据、敲诈勒索 等犯罪。例如,不法分子可能伪造受害者的淫秽视频进行要挟,或在商业纠纷中提交AI合成的"录音证据"。虽然Deepfake证据往往经不起深入鉴定,但在短期内足以扰乱视听甚至影响司法判断。公安机关报告显示,近年来涉及AI伪造的诈骗和勒索案件数量呈指数级上升 。据调研,公司管理层中有超过四分之一(约25.9%)的人表示,他们的组织在过去一年遇到过Deepfake攻击事件 。一项调查指出,2023年金融科技行业的Deepfake事件同比增长了700% 。另有统计显示,在已发现的Deepfake欺诈案例中,高达88%发生在加密货币投资诈骗领域,约8%涉及金融服务公司,这些数字表明,诈骗分子热衷利用Deepfake去博取受害者信任或规避安全审查。

几个典型案例可以看出犯罪手法的演变轨迹:

  • 假冒CEO语音诈骗:骗子克隆公司CEO或财务长的声音,打电话给财务人员要求紧急汇款。由于声音相似度极高且有权威性,不少员工放松警惕照办。
  • Deepfake视频会议 :利用高质量AI换脸技术,直接在视频会议中冒充领导或客户,下达虚假指令。这比纯语音更具迷惑性,最近发生的$2500万诈骗就采用了这一手法,名人代言骗局 :网上充斥着马斯克等名人被Deepfake的视频 ,诱导观众投资虚假加密货币或项目。这类视频往往制作精良,在YouTube等平台散布,成为新型网络诈骗的工具。有报告称2024年初互联网上大量出现的骗局中,假冒马斯克的Deepfake视频是"最成功的诈骗之一"。虚假身份应聘/开户:不法分子使用AI合成头像和视频,骗过人脸识别系统以远程注册银行账户或求职面试,从事洗钱或内鬼渗透活动。美国联邦调查局FBI已发出警告,称侦测到求职面试中的视像Deepfake企图。

面对层出不穷的Deepfake诈骗,金融机构和企业开始加强防范。例如,许多银行提高了大额转账的多重验证要求(不仅凭语音指令),同时训练员工识别可疑迹象。美国财政部下属的金融犯罪执法网络(FinCEN)在2024年发布警报 ,指导金融机构识别使用生成式AI伪造的欺诈模式,然而,技术带来的**"猫鼠游戏"**仍在继续:Deepfake使诈骗更加隐蔽高效,警方和风控人员则需不断升级鉴别手段。据预测,如果不采取有效措施,2027年美国因AI诈骗导致的损失可能从2023年的122亿美元飙升至400亿美元这凸显了构建完善防御体系、提升公众警觉的重要性。

防御体系构建

随着Deepfake技术的进化,社会各界也在积极研发检测、防御手段,并制定政策法规来减轻其负面影响。当前的防御体系主要包括技术检测工具政策监管措施两个层面。

Deepfake检测与防御技术

1. 算法检测: 技术公司和研究机构推出了多种Deepfake检测算法。这些工具利用AI模型来分析图像、视频或音频中的细微破绽,从而判断内容真伪。例如,微软在2020年发布了"Video Authenticator "深度伪造检测器,可以对视频逐帧分析,并给出每一帧被篡改的概率评分它通过捕捉Deepfake常见的边缘模糊、色调过渡等细微特征 ,帮助用户识别视频是否为AI合成。又如,英特尔实验室研发了被称为FakeCatcher 的实时检测系统,号称准确率达96%FakeCatcher的独特之处在于,它并非仅靠传统图像分析,而是监测视频中人物肤色变化所反映的血液流动信号 ---正常真人的视频中,人脸随着心跳会有肉眼难辨的微小颜色变化,AI合成的视频往往缺乏这种生理节律。通过提取这些PPG(光电容积图)信号,FakeCatcher能够在毫秒内判断一段影像是真人还是假人。这类创新思路提高了检测的鲁棒性。此外,学术界也提出其他检测线索,例如观察人像的眨眼频率和表情细节 (早期一些Deepfake模型眼睛眨动不自然)、分析数字水印或算术特征等。Facebook曾与合作伙伴举办Deepfake检测竞赛,涌现出多样算法。然而,需要注意的是,检测算法本身也在与生成技术赛跑 。正如微软团队所言,Deepfake生成模型在不断改进,终将能够战胜现有的检测方法,因此,业界采取多层次、多模态检测手段,将图像、声音、生理信号等结合,提高识别率。同时也在持续更新检测模型,以防被新的生成技术绕过。

2. 数字水印与内容签名: 除了被动检测,另一种思路是给内容加上"身份证明 "------也就是在合法影音内容中嵌入数字水印或签名,从源头保证真伪可查。这方面,国内外都有探索。腾讯 的"天御"安全团队开发了数字水印 方案,尝试为AI生成的内容打上隐蔽标记。一旦视频或图像被擅自篡改或移花接木,这种水印会被破坏,从而提示内容可能不可信。据报道,腾讯正构建从内容生产到传播各环节的全链路安全方案 ,其中包括版权保护和水印标记等技术,以确保生成式内容的可信和可追溯。在国际上,Adobe、微软、英特尔等发起了"内容真实性倡议(Content Authenticity Initiative,CAI)" ,制定开放标准(如C2PA)来附加内容凭证。该方法是在照片、视频文件中写入加密的元数据,记录制作过程、编辑历史。如果一段媒体是真实拍摄的,设备会写入签名;若经过AI处理,也应有相应声明。未来,当我们看到一条视频新闻时,可以检查其"数字签章",验证它来自正规摄像机且未被修改。这种主动标识方法,被视为对抗Deepfake的长远之计。事实上,中国已率先在法规中要求AI合成内容必须标识 :自2023年初实施的《互联网信息服务深度合成管理规定》明确,使用Deepfake技术制作的音视频需以显著方式标明这是合成内容,避免与真实信息混淆。技术上,实现标识可通过添加不可见水印或字幕提示等方式。

3. 平台部署与过滤: 大型互联网平台正将Deepfake检测融入内容审核系统。比如,FacebookInstagram 与第三方事实核查机构合作,扫描上传的视频是否疑似Deepfake,一旦确认将标记为"操纵媒体"并限制传播。腾讯 等国内公司也在其内容安全服务中增设AI鉴伪功能,对用户上传的短视频进行识假审核。2023年,微信团队公告打击利用名人AI换脸的诈骗视频,短期内删除了500多条此类内容,封禁上百个涉嫌帐号。此外,视频网站、有线电视台也开始部署检测算法,防止Deepfake视频在未经说明的情况下播出。这种前置拦截可以降低虚假内容大规模传播的机会。当然,平台检测并非万无一失,一些高明的Deepfake可能漏网,但随着算法进步和案例积累,机器审核的精准度会逐步提高。

政策法规与多方行动

面对Deepfake可能带来的社会危害,各国政府、科技公司和研究机构近年纷纷采取措施,从法律和合作层面构筑防线:

  • 政府监管: 中国 走在前列,出台了专门规章管理"深度合成"服务,要求提供相关技术的企业进行算法备案,并对生成内容标识、数据来源、身份验证等作出细致规定。同时,中国网信办多次约谈国内主要互联网企业(如阿里巴巴、腾讯、字节跳动等),强调对Deepfake功能上线前要做好安全评估美国 则主要通过现有法律框架应对,比如用版权法和肖像权打击非自愿Deepfake,并在联邦层面提出《DEEPFAKES责任法案》等(虽尚未全面通过)。一些州已率先立法,如加州和德州禁止选举相关有害Deepfake、弗吉尼亚将未经同意制作合成裸照列为非法。欧盟 在拟定的《AI法案》中也特别提及Deepfake,要求AI生成内容必须显著标明是合成的,违者可能面临罚款。2022年,欧盟更新《数字服务法》和《不实信息自律守则》,召集互联网公司承诺打击深度伪造用于虚假信息。英国 最近通过的《网上安全法案》也把分享私密Deepfake视作刑事犯罪。总体看,政府层面正在完善法律武器库 ,既包括刑法 (惩治造假侵权行为),也包括选举法 (维护民主程序),以及监管指南(约束技术滥用)。

  • 行业自律与合作: 科技公司意识到仅靠各自为政难以解决Deepfake挑战,因此出现很多跨行业合作项目。例如,微软、Adobe、BBC等组成了内容真实性倡议,共推标准和工具。Facebook曾投入千万美元举办全球Deepfake侦测比赛,Google的Jigsaw团队甚至主动生成了一批假视频供研究者练习侦测。社交媒体巨头还和政府、学界建立快速响应机制 :一旦发现传播中的疑似Deepfake,会及时与研究机构联系,借助专业分析确认并阻止扩散。在金融领域,银行业联合成立反欺诈联盟,共享最新的Deepfake诈骗手法情报。2024年初,多家银行、保险公司参与制定了身份验证新规,针对远程开户、贷款等流程增加视频核身时的提问随机性,以防录播伪装。学术界 也积极投入政策建议,像麻省理工学院等发布报告,呼吁建立媒体取证的标准流程 ,培养相关人才以应对未来大规模的合成造假。值得一提的是,公众科普和媒体素养培养 被视为重要防线之一。政府和非营利机构制作了很多宣传材料,教导大众如何识别Deepfake,例如注意视频中面部细节失真、奇怪的眨眼频率、音画不同步等迹象。一些媒体还会每周辟谣,总结近期流传的Deepfake谣言案例,提高全民免疫力。

  • 执法和司法应对: 警方开始将Deepfake纳入网络犯罪侦查范畴,配备了相应取证工具。一些国家组建了专门的数字鉴定实验室 ,能够鉴别提交法院的视频证据真伪。在司法实践中,也出现引用Deepfake检测报告来推翻伪证的案例。美国国防部下属的DARPA早在2018年就启动了"数字媒介取证计划",资助研发自动化鉴伪系统,以协助情报和执法部门甄别假视频。可以预见,随着Deepfake案件增多,司法体系会积累判例并细化证据规范,例如要求关键视频证据提供拍摄来源证明等,防范AI伪造干扰司法公正。

综上,各方正协同构建一个**"技术+制度"并行的防御体系**:技术上用检测和水印压制Deepfake的危害,制度上用法律和规范提高滥用的成本和风险。同时,通过国际合作和行业自律,使得Deepfake的正当应用(如影视特效、合成主播等)有章可循,不致因滥用而被全面禁绝。

独特观点:未来趋势与挑战展望

面向未来,Deepfake技术攻防战将继续演进。我有以下几点观察和思考:

1. 攻防军备竞赛加剧,真实性认证或成破局关键。 深度伪造的生成能力还在快速提升。随着更强大的生成模型(如基于扩散模型或多模态Transformer)的出现,未来的假视频将更加难以肉眼识别,甚至可能实现实时、高分辨率 的全身假人合成。这意味着现有很多检测手段(依赖于发现视觉瑕疵)可能逐渐失效,攻防进入**"深度军备竞赛"阶段:一方不断优化合成模型以骗过检测,另一方升级判别算法寻找新破绽。在完全依赖被动检测变得困难时,内容真实性的标记和验证将尤为重要。也就是说,从创作之初就给影音数据打上可信标签,建立 数字身份认证体系**。这有点类似于互联网上的"HTTPS"安全证书,只不过对象变成了多媒体内容。如果每部记者拍摄的视频都带有设备签名,观众就能核实来源可信度;反之,无法验证来源的视频将自动打上"不可靠"警告。这套体系需要行业广泛采用统一标准(如C2PA),并可能借助区块链等技术防篡改。一旦成熟,它将从根本上削弱Deepfake的迷惑性。短期内,实现全球通行仍有难度,但我预测内容可信度认证会成为未来5-10年的重要发展方向,各大内容平台和设备厂商会逐步跟进支持。

2. Deepfake民主化双刃剑:创意工具抑或谣言利器? 随着技术门槛降低,Deepfake正变成全民可用的内容创作工具。一方面,这将催生许多创新应用 :普通人可以利用它制作有趣的视频短片、影视行业用它进行复原逝去演员的表演、教育领域借虚拟数字人进行教学等等。Deepfake有望成为继图片编辑之后的又一大众媒体创作手段,其正面价值不可忽视。但另一方面,大众化也意味着滥用风险扩散 。当几乎任何人都能生成乱真的假视频,诈骗、诽谤等的门槛也随之降低。尤其在缺乏监管的网络社区,可能充斥各类未经证实的合成影像。如果法律和教育跟不上,人们可能陷入"眼见不再为实"的困惑,进一步加剧对媒体的不信任。这就是前文提到的"liar's dividend"效应:连真实事件的影像证据都会被质疑为伪造,事实辨识的共识基础被侵蚀。因此,我们必须在鼓励Deepfake正当创新的同时,加大对非法滥用的打击和对公众的科普。或许未来每个人都需要具备**"媒体鉴别素养"**,就像基本的防诈骗意识一样普及:看到震惊性视频先存疑,求证来源真伪。总体而言,Deepfake的平民化是无法逆转的潮流,我们应趋利避害,让更多人用它做好事、让坏人用它难成事。

3. 法规和技术的局限与改进方向: 目前的法律多数着眼于事后惩罚 (比如发生名誉侵害才追责)或特定场景禁止 (如选举期的限制)。这些在实际执行中面临取证难、跨境管辖难的问题。未来法规可能需要更细致,比如明确合成内容的标识义务 和法律效力------未标识即视为违规,平台应直接移除等。此外,国际合作立法也很关键,Deepfake互联网传播无国界,如果各国标准不一致,执法就有漏洞。从技术层面看,目前检测算法往往滞后于新型Deepfake,缺乏长期有效性 。这需要投入更多科研力量,探索对抗样本训练 等前瞻方法,使检测模型具备一定的前置防御能力(在生成技术更新前就预测其可能弱点)。也有人提出利用AI判别AI ,即用更强大的生成模型去反过来检测输出是否来自AI,此思路类似于辨别画作真伪的"鉴定专家"也是画家本人。无论如何,技术永远有攻有防,没有绝对万能的鉴伪神器。因此在实务中,还应结合人工审核和常识判断 。比如,一个政客不可能在两个城市同时发表演讲,即便视频看起来真假难辨,但通过客观情报就可拆穿。这提示我们,Deepfake防御不是孤立的,要与整个信息生态的治理结合起来。实时事实核查、权威信源发布澄清、公众举报机制等,都将是制约Deepfake影响的有效补充。

4. 深度伪造的未来演变: 展望未来5年至10年,Deepfake可能出现一些新的态势。例如,全息和3D领域的Deepfake :随着AR/VR技术发展,虚拟会议中的3D真人形象也可能被篡改,我们需要提前研究三维空间的鉴假方法。又如,跨模态Deepfake :未来假信息未必以视频呈现,还可能是图像、音频、文本多管齐下(比如同时伪造一个人的声音、脸和写作风格来进行全面冒充)。这要求我们的防御视野也从单一媒体扩展到多模态联动 。好消息是,AI技术本身也在提供新工具,比如GPT模型可以用于分析可疑视频的语义逻辑是否异常,辅助判定真伪。总的来说,Deepfake技术会越来越融入日常生活,我们能做的不是堵绝它(这不现实),而是构建更强大的诚信体系和理性的社会心理来消化它的影响。当假与真的界线变得容易被打破时,全社会协作建立新的可信框架就变得尤为重要。

结语: 深度伪造技术在过去五年里快速发展,从最初的新奇产物演变为影响政治安全、金融诚信的重要因素。我们已经看到,技术本身并非善恶的化身,关键在于使用者的目的和社会的应对。通过技术和政策双管齐下,Deepfake的威胁是可以被控制在可管理范围内的。同时,我们也应善加利用这项技术的积极潜力。未来的攻防较量依然充满不确定性,但只要坚持提高公众意识、完善法规、强化科技伦理,我们有望在享受生成式AI带来便利的同时,守住真实与信任的底线,在这场没有硝烟的战役中立于不败之地。

相关推荐
飞火流星020271 小时前
BERT、T5、ViT 和 GPT-3 架构概述及代表性应用
人工智能·gpt-3·bert·t5·vit·人工智能模型架构
程序小K1 小时前
自然语言处理Hugging Face Transformers
人工智能·自然语言处理
恒拓高科WorkPlus1 小时前
BeeWorks:打造安全可控的企业内网即时通讯平台
大数据·人工智能·安全
newxtc2 小时前
【指纹浏览器系列-chromium编译】
人工智能·安全
轻闲一号机2 小时前
【机器学习】机器学习笔记
人工智能·笔记·机器学习
光锥智能2 小时前
傅利叶发布首款开源人形机器人N1:开发者可实现完整复刻
人工智能
恒拓高科WorkPlus2 小时前
一款安全好用的企业即时通讯平台,支持统一门户
大数据·人工智能·安全
天下琴川2 小时前
Dify智能体平台源码二次开发笔记(5) - 多租户的SAAS版实现(2)
人工智能·笔记
qq_365911603 小时前
中英文提示词对AI IDE编程能力影响有多大?
人工智能
jndingxin3 小时前
OpenCV 图形API(31)图像滤波-----3x3 腐蚀操作函数erode3x3()
人工智能·opencv·计算机视觉