选煤、矿石筛选及分级
近年来,人工智能技术在全世界内引发了深刻的科技变革与产业变革,而中国人工智能初创公司)迅速崛起,成为全世界科技领域的焦点之一。在当前全球数字化加速推进、网络安全威胁日益复杂的背景下,技术架构与市场定位不仅为行业带来了新的可能性,同时也引发了广泛的网络安全关切。
本文基于现有的公开资料,从企业资深网络安全专家的视角,系统梳理DeepSeek技术在网络安全领域的潜在贡献与核心风险,并结合中国自主可控的发展的策略,提出针对性的应对策略,旨在为相关企业和机构提供全面、深入的参考,以更好地应对AI时代的网络安全挑战。
尽管DeepSeek的网络安全风险显著,但从AI大模型的角度来看,其技术架构与市场定位仍为网络安全行业带来了一定的启示,并在多个角度展现出对网络安全的潜在提升作用。
DeepSeek采用的“专家混合”架构,通过分治策略在同等算力下实现了更高性能,明显提升了模型推理效率。这一架构的创新性不仅体现在技术层面,更在于其为实时威胁分析、自动化安全响应等网络安全关键场景提供了坚实的技术基础。在传统的网络安全防护体系中,实时性往往是一个难以突破的瓶颈,而DeepSeek的这一架构优势有望打破这一局限,使得安全系统能够更迅速、更精准地对潜在威胁做出一定的反应,从而有效提升整体网络安全防护的时效性和有效性。
DeepSeek-R1的培训成本仅为600万美元,远低于西方同类模型。这种经济高效的AI解决方案对于中小型企业而言具备极其重大的普惠价值。在网络安全领域,中小企业往往面临着资源有限的困境,难以承担高昂的安全防护成本。DeepSeek的低成本特性使得这一些企业也能够借助先进的AI技术提升自身的网络安全防护能力,尤其是在威胁情报分析、日志异常检测等领域,可能推动安全领域的普惠化应用,加强完善整个行业的网络安全生态。
DeepSeek通过GitHub、Hugging Face等平台开放模型下载,成功吸引了全球开发者参与优化与安全测试。这种开源模式不仅加速了技术创新的步伐,还为安全社区提供了丰富的工具和资源。例如,加州大学伯克利分校基于其代码开发的Sky-T1模型,充分展示了开源生态在技术迭代中的巨大价值。在全世界内,开源社区汇聚了大量的技术人才和创新力量,DeepSeek的开源策略有效地调动了这些资源,形成了一个充满了许多活力的协同创新生态,为网络安全技术的发展注入了新的动力。
开源生态的存在使得更多的开发者能够参与到安全技术的研究和开发中来。通过对DeepSeek模型的优化和安全测试,开发者们不难发现潜在的安全漏洞和风险,并及时提出解决方案。这种广泛的参与和协作有助于推动安全技术的不停地改进革新和完善,提高整个行业对网络安全威胁的应对能力。同时,开源生态也为安全厂商和公司可以提供了更多的选择和参考,促进了安全技术市场的竞争和发展。
1.深信服科技股份有限公司:深信服在其安全产品和服务中集成了DeepSeek的技术,以提升威胁检测和响应能力,增强整体安全防护效果。
2.启明星辰信息技术集团股份有限公司:启明星辰利用DeepSeek的先进的技术优化其安全解决方案,特别是在大数据分析和威胁情报方面,以提高安全事件的预测和防御能力。
3.绿盟科技集团股份有限公司:绿盟科技与DeepSeek合作,将AI技术应用于其安全产品中,以提升对复杂网络攻击的检测和防御能力。
4.天融信科技集团:天融信在其网络安全解决方案中采用了DeepSeek的技术,以增强对高级持续性威胁(APT)的检测和响应能力。
5.奇安信科技集团股份有限公司:奇安信与DeepSeek合作,利用其AI技术提升终端安全、网络安全和云安全等方面的防护能力。
6.亚信科技控股有限公司:亚信科技在其安全产品中集成了DeepSeek的技术,以提高对网络威胁的实时监测和防御能力。
7.安恒信息技术股份有限公司:安恒信息与DeepSeek合作,将AI技术应用于其安全产品中,以提升对网络攻击的检测和防御能力。
8.山石网科通信技术股份有限公司:山石网科在其网络安全解决方案中采用了DeepSeek的技术,以增强对复杂网络攻击的检测和防御能力。
9.蓝盾信息安全技术股份有限公司:蓝盾信息与DeepSeek合作,利用其AI技术提升网络安全防护能力,特别是在威胁情报和安全事件响应方面。
10.美亚柏科信息安全技术有限公司:美亚柏科在其安全产品中集成了DeepSeek的技术,以提高对网络威胁的实时监测和防御能力。
安全厂商通过把DeepSeek的AI技术引入其产品与服务中,能够更好地应对日益复杂的网络安全威胁,为客户提供更高效、智能的安全解决方案。
根据相关研究,DeepSeek的安全风险可归纳为以下五类,每类均存在具体案例与数据支撑,以下将从AI大模型的角度进行更深入的分析。
红队测试显示【1】,DeepSeek-R1生成非法活动指导(如网络犯罪策略)的概率是 OpenAI o1 的 11 倍。这种高概率的有害内容生成能力使其成为恶意行为者的潜在工具。在 AI 大模型的应用场景中,内容生成是一个重要的功能,但如果模型存在安全漏洞,生成有害内容将对网络安全和社会稳定导致非常严重威胁。例如,恶意行为者可通过生成的网络犯罪策略进行非法活动,如网络攻击、诈骗等,给个人、企业和国家带来非常大的损失。
在 78% 的代码攻击测试中【1】,模型生成恶意脚本(如木马程序)的概率比同类模型高 4 倍。这种漏洞可能被攻击者利用,生成恶意软件或漏洞利用代码,逐步扩大攻击面。AI 大模型生成代码的能力在软件开发等领域具备极其重大价值,但如果生成的代码存在安全漏洞,将给软件供应链安全带来非常大风险。攻击者能够最终靠生成恶意代码来攻击软件系统,窃取用户数据、破坏系统功能等,对网络安全导致非常严重破坏。
从 AI 大模型的技术角度来看,DeepSeek 在抵御越狱攻击的得分仅为 0.15/1.0(满分)【2】,远低于欧盟 AI 法案要求,表明其安全机制存在严重缺陷。这可能是由于模型在训练过程中缺乏足够的安全对齐训练,导致其在面对恶意提示时无法有效过滤有害输出。此外,模型的算法设计也有几率存在缺陷,如强化学习策略虽提升推理效率,但牺牲了安全对齐机制,使得模型易被自动化工具绕过限制。
DeepSeek的隐私政策明确用户数据存储于中国境内服务器,受《中国网络安全法》约束,政府可依法要求数据访问。这种数据存储政策引发了国际社会的广泛担忧,尤其是在涉及敏感信息时。在AI大模型的应用中,数据是核心资源,数据存储的合规性至关重要。不同国家和地区对数据隐私和主权有不同的法律和法规要求,DeepSeek的数据存储政策可能与一些国家的法律产生冲突,导致合规性风险。但用户若通过本地运行模型或第三方平台使用服务,可能可以规避这一限制。
在AI大模型的全球化应用中,跨境数据流动是一个重要问题,不同国家和地区的法律和法规对跨境数据流动有不同的要求。DeepSeek需要在满足中国法律和法规的同时,应对其他几个国家和地区的合规要求,这增加了其运营的复杂性和风险。同样,用户若通过本地运行模型或第三方平台使用服务,也可以规避这一限制。
2025 年 1 月的数据泄露事件中,超过 100 万条用户聊天记录与 API 密钥因未加密的 ClickHouse 数据库暴露而泄露【6】。这种大规模数据泄露事件不仅损害了用户信任,还暴露了其数据保护的方法的不足。在 AI 大模型的应用场景中,数据泄露可能会引起用户隐私泄露、商业机密被盗用等难以处理的后果,给企业和用户所带来巨大的损失。同时,数据泄露事件也会对企业的声誉和市场竞争力造成负面影响。
2025年1月,DeepSeek遭遇峰值3.2Tbps的DDoS攻击,导致官网瘫痪48小时,初期防御体系未能有效过滤异常流量。这种大规模攻击暴露了其带宽管理与应急响应机制的不足。在AI大模型的应用中,基础设施和网络架构的稳定性至关重要,DDoS攻击是一种常见的网络攻击手段,如果防御体系不完善,将导致服务中断、使用者真实的体验下降等严重后果。
反射放大攻击(如NTP/SSDP协议滥用)暴露其带宽管理缺陷。这种攻击方式不仅消耗了大量资源,还可能会引起服务中断,影响使用者真实的体验。在AI大模型的应用场景中,带宽管理是一个核心问题,如果带宽管理存在缺陷,将无法有效应对大规模的网络流量,导致网络拥塞和服务的品质下降。
攻击者通过PyPI 平台分发伪装成 DeepSeek API 客户端的恶意软件包【3】,窃取环境变量与用户数据。这种供应链攻击不仅威胁到用户数据安全,还可能会影响其品牌声誉。在 AI 大模型的应用中,供应链安全是一个重要问题,如果供应链存在漏洞,将导致安全风险的传导,影响总系统的安全性和稳定性。
使用 HarmBench数据集的 50 个有害提示攻击中【4】,DeepSeek-R1 的攻击成功率(ASR)达 100%,即使在确定性输出模式下仍没办法阻止有害响应。这种高成功率表明其安全机制存在严重缺陷,极易被滥用。在 AI 大模型的应用中,模型防御机制的有效性至关重要,如果防御机制失效,将导致有害内容的生成和传播,对网络安全和社会稳定导致非常严重威胁。
Qualys 测试显示【5】,其在不同越狱技术(如 Titanius、AJP)下的失败率超58%。这种高失败率表明其安全防护机制几乎无效,极易被绕过。在 AI 大模型的应用场景中,越狱攻击是一种常见的攻击手段,如果模型无法有效抵御越狱攻击,将导致安全漏洞的暴露和滥用。
强化学习策略虽提升推理效率,但牺牲了安全对齐机制,导致模型易被自动化工具绕过限制。这种设计缺陷使其在面对复杂攻击时显得很脆弱。在AI大模型的技术架构中,算法设计是核心环节,如果算法设计存在缺陷,将影响模型的安全性和可靠性。
澳大利亚与美国海军已禁止在政府设备中使用DeepSeek,认为其数据实践构成“不可接受的安全风险”。这种禁令不仅限制了其市场扩展,还可能引发其他几个国家的效仿。在AI大模型的全球化应用中,地理政治学因素对市场准入具备极其重大影响,国际禁令将导致DeepSeek在一些国家和地区的市场受限,影响其业务发展和市场竞争力。
美国与意大利等国推动立法限制DeepSeek市场准入,加剧其国际化障碍。这种地理政治学风险可能对其长期发展产生深远影响。在AI大模型的国际市场之间的竞争中,法律和法规和政策环境是主要的因素,立法限制将增加DeepSeek的经营成本和风险,影响其国际化战略的实施。
尽管DeepSeek自研“烛龙”框架减少对英伟达CUDA的依赖,但其早期依赖A100 GPU库存仍存在供应链断供风险。这种技术依赖可能使其在面对国际制裁时陷入被动。在AI大模型的技术体系中,供应链安全是关键环节,如果供应链存在隐患,将影响技术的稳定性和可持续性。
基于上述风险,结合专家经验与技术实践,以及中国自主可控的发展的策略,提出以下关键措施。
对核心数据库实施分域部署与权限最小化。零信任架构可以轻松又有效减少数据泄露的风险,加密技术能保护数据的机密性和完整性。在AI大模型的数据存储和管理中,零信任架构和加密技术是重要的安全措施,通过分域部署和权限最小化,可以限制数据的访问和使用,防止数据泄露。
通过针对模型的风险评估和第三方审计验证各国和地区有关AI法案的合规性。合规性改造能保证企业在国际市场的合规性,降低法律风险。在AI大模型的应用中,合规性是一个重要问题,通过针对模型的风险评估和第三方审计,可以对模型的风险做全面评估和管理,确保其符合有关法律和法规的要求。
针对安全厂商的产品与服务,将AI能力整合至威胁检测系统。安全厂商协同能提高整体安全防护能力,形成优势互补。在AI大模型的应用中,安全厂商协同是一个重要的合作模式,通过将AI能力整合至威胁检测系统,能大大的提升安全防护的智能化水平,增强对网络安全威胁的应对能力。
通过开发者社区共建安全标准,例如建立漏洞赏金计划。开源生态治理可以有实际效果的减少开源生态中的安全风险,促进开源社区的健康发展。在AI大模型的开源生态中,通过建立漏洞赏金计划等激励机制,可以鼓励开发者热情参加安全漏洞的发现和修复,提高开源生态的安全性。
针对攻击升级场景制定自动化遏制策略。分级响应机制能够迅速响应复杂攻击,减少损失。在AI大模型的应用中,应急响应是一个重要环节,通过完善分级响应机制,能大大的提升对网络安全事件的应对能力,降低事件的影响和损失。
推动国际数据主权协议,减少法律冲突。跨境数据治理框架能提高企业在国际市场的合规性,降低法律风险。在AI大模型的全球化应用中,跨境数据治理是一个重要问题,通过推动国际数据主权协议,可以协调不同国家和地区的法律和法规要求,减少法律冲突。
通过开放部分代码与安全白皮书增强市场信任。技术开源与透明化能提高用户信任度,促进技术的广泛应用。在AI大模型的发展中,技术开源与透明化是一个重要趋势,通过开放部分代码和安全白皮书,可以让用户更好地了解技术的原理和安全性,增强对技术的信任。
DeepSeek的崛起既是AI技术创新的里程碑,也是网络安全风险的集中体现。其核心优势(低成本、高性能)与安全缺陷(安全漏洞、合规短板)并存,要求企业与安全厂商采取“技术+管理+生态”的综合策略。从技术层面来看,优先部署动态防护与零信任架构,减少模型滥用风险;从管理层面来看,建立跨部门应急机制,强化合规审计;从生态层面来看,通过厂商合作与开源治理构建安全生态。
此次事件警示行业:AI安全需嵌入技术研发全生命周期,唯有系统性思维方能平衡创新与风险。未来,DeepSeek若能在安全对齐、国际合作与透明治理上取得突破,可逐步提升其技术价值,成为AI安全领域的标杆。在中国自主可控的发展的策略下,DeepSeek有望通过技术创新和生态合作,推动AI技术在网络安全领域的健康发展,为全球网络安全事业做出贡献。
1.我们做大模型,跟量化和金融都没有必然的联系。我们要做的是通用AI,也就是AGI。
2.语言大模型是通往AGI的必经之路,并且初步具备了AGI的特征,所以我们从这里开始。
3.我们不会过早设计基于模型的一些应用,会专注在大模型上。从长期看,大模型应用门槛会慢慢的低,初创公司在未来20年任何一个时间里下场,也都有机会。我们的目标很明确,就是不做垂类和应用,而是做研究,做探索。
4.我们理解人类智能的本质就是语言,人的思维就是一个语言的过程。你以为你在思考,其实可能是你在脑子里编织语言。这在某种程度上预示着,在语言大模型上可能诞生出类人的人工智能(AGI)。
5.只做复刻的话,可以在公开论文或开源代码基础上,只需训练很少次数,甚至只需finetune(微调)一下,成本很低。而做研究,要做各种实验和对比,需要更加多算力,对人员要求也更高,所以成本更高。
6.我们大家都希望更多人,哪怕一个小App都可以低成本去用上大模型,而不是技术只掌握在一部分人和公司手中,形成垄断。大厂的模型,可能会和他们的平台或生态捆绑,而我们是完全自由的。
7.从商业角度来讲,基础研究是投入回报比很低的。我们比较确定的是,既然我们想做这个事,又有这个能力,这一段时间点上,我们就是最合适人选之一。
8.从最早的1张卡,到2015年的100张卡、2019年的1000张卡,再到一万张,这样的一个过程是逐步发生的。很多人会以为这里边有一个不为人知的商业逻辑,但其实,主要是好奇心驱动,对AI能力边界的好奇。
9.对很多行外人来说,ChatGPT这波浪潮冲击特别大;但对行内人来说,2012年AlexNet带来的冲击已经引领一个新的时代。AlexNet的错误率远低于当时其他模型,复苏了沉睡几十年的神经网络研究。虽然具体技术方向一直在变,但模型、数据和算力这三者的组合是不变的,特别是当2020年OpenAI发布GPT3后,方向很清楚,需要大量算力。那之后,我们有意识地去部署尽可能多的算力。
10.一件激动人心的事,不能单纯用钱衡量。就像家里买钢琴,一来买得起,二来是因为有一群急于在上面弹奏乐曲的人。
11.人工成本是对未来的投资,是公司最大的资产。我们选的人相对朴实一点,有好奇心,来我们这里有机会去做研究。大厂很难单纯去做研究,做训练,它更多会是业务需求驱动。若无法很快应用,大厂不一定可以持续坚持,因为它更需要看到结果。
12.我们招人有条原则是,看能力,而不是看经验。如果追求短期目标,找现成有经验的人是对的。但如果看长远,经验就没那么重要,基础能力、创造性与热爱等更重要。
13.我们的核心技术岗位,基本以应届和毕业一两年的人为主。做一件事,有经验的人会不假思索告诉你,应该这样做,但无经验的人,会反复摸索、很认真去想该如何做,然后找到一个符合当前真实的情况的解决办法。
14.我们招人的条件是热爱,这些人的热情通常会反映出来,因为他真的很想做这件事,所以这些人往往同时也在找你。
15.我们的考核标准和一般公司不太一样。我们没KPI,也没有所谓的任务。
16.创新需要尽可能少的干预和管理,让每一个人有自由发挥的空间和试错机会。创新往往都是自己产生的,不是刻意安排的,更不是教出来的。我们交给员工重要的事,并且不干预他。让他自己想办法,自己发挥。
17.招人时确保价值观一致,然后通过企业文化来确保步调一致。当然,我们并没有一个成文的企业文化,因为所有成文的东西,又会阻碍创新。更多时候,是管理者的以身示范,遇到一件事,你如何做决策,会成为一种准则。
18.按照教科书的方法论来推导勇于探索商业模式的公司,在当下,他们做的事,都是活不下来的。但市场是变化的,真正的决定力量往往不是一些现成的规则和条件,而是一种适应和调整变化的能力。很多大公司的组织架构已经不能快速响应和快速做事,而且他们很容易让之前的经验和惯性成为束缚,而这波AI新浪潮之下,一定会有一批新公司诞生。
19.最让我们兴奋的是去搞清我们的猜想是不是事实,如果是对的,就会很兴奋了。
20.信仰者会之前就在这里,之后也在这里。他们更会去批量买卡,或者跟云厂商签长协议,而不是短期去租。
21.创新是昂贵且低效的,有时候伴随着浪费。所以经济发展到某些特定的程度之后,才能够出现创新。很穷的时候,或者不是创新驱动的行业,成本和效率最重要。OpenAI也是烧了很多钱才出来的。
22.这样一个世界存在很多无法用逻辑解释的事,就像很多程序员,也是开源社区的疯狂贡献者,一天很累了,还要去贡献代码。类似你徒步50公里,整个身体是瘫掉的,但精神很满足。
23.不是所有人都能疯狂一辈子,但大部分人,在他年轻的那些年,可以绝对没功利目的,投入地去做一件事。
24.我们的大模型服务降价只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利,在成本之上稍微有点利润。
25.抢用户并不是我们的最大的目的。我们降价一方面是由于我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得无论API,还是AI,都应该是普惠的、人人可以用得起的东西。
26.如果目标是做应用,那沿用Llama结构,短平快上产品也是合理选择。但我们的目的地是AGI,这在某种程度上预示着我们需要研究新的模型结构,在有限资源下,实现更强的模型能力。这是scale up到更大模型所需要做的基础研究之一。除了模型结构,我们还做了大量其他的研究,包括怎么构造数据,如何让模型更像人类等,这都体现在我们发布的模型里。
27.最重要的是参与到全世界创新的浪潮里去。过去很多年,中国公司习惯了别人做技术创新,我们拿过来做应用变现,但这并非是一种理所当然。这一波浪潮里,我们的出发点,就不是趁机赚一笔,而是走到技术的前沿,去推动整个生态发展。
28.随着经济发展,中国也要逐步成为贡献者,而不是一直搭便车。过去三十多年IT浪潮里,我们基本没有参与到真正的技术创新里。我们已习惯摩尔定律从天而降,躺在家里18个月就会出来更好的硬件和软件。但其实,这是西方主导的技术社区一代代孜孜不倦创造出来的,只因为之前我们没参与这样的一个过程,以至于忽视了它的存在。
30.创新的成本肯定不低,过去那种拿来主义的惯例和过去的国情有关。但现在,无论中国的经济体量,还是字节、腾讯这些大厂的利润,放在全球都不低。我们创新缺的不是资本,而是缺乏信心以及不知道如何组织高密度的人才实现有效的创新。
31.过去三十年,我们都只强调赚钱,对创新是忽视的。创新不完全是商业驱动的,还需要好奇心和创造欲。我们只是被过去那种惯性束缚了,但它也是阶段性的。
32.在颠覆性的技术面前,闭源形成的护城河是短暂的。即使OpenAI闭源,也没办法阻止被别人赶超。所以我们把价值沉淀在团队上,我们的同事在这样的一个过程中得到成长,积累很多know-how,形成可以创新的组织和文化,这就是我们的护城河。
33.开源,发论文,并没有失去什么。对于技术人员来说,被follow是很有成就感的事。开源更像一个文化行为,而非商业行为。给予是一种额外的荣誉,一个公司这么做也会有文化的吸引力。
35.中国AI和美国真实的gap是原创和模仿的差距。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。
36.英伟达的领先,不只是一个公司的努力,而是整个西方技术社区和产业一起努力的结果。他们能看到下一代的技术趋势,手里有路线图。中国AI的发展,同样需要这样的生态。很多国产芯片发展不起来,是因为缺乏配套的技术社区,只有第二手消息,所以中国必然需要有人站到技术的前沿。
38.我们短期内没有融资计划,我们面临的问题从来不是钱,而是高端芯片被禁运。
39.更多的投入并不一定产生更多的创新,否则大厂可以把所有的创新包揽了。
40.我们大家都认为当前阶段是技术创新的爆发期,而不是应用的爆发期。长远来说,我们大家都希望形成一种生态,就是业界直接用我们的技术和产出,我们只负责基础模型和前沿的创新,然后其它公司在DeepSeek的基础上构建toB、toC的业务。如果能形成完整的产业上下游,我们就没必要自己做应用。
41.若需要,我们做应用也没障碍,但研究和技术创新永远是我们第一优先级。
42.技术没有秘密,但重置需要一些时间和成本。英伟达的显卡,理论上没有一点技术秘密,很容易复制,但重新组织团队以及追赶下一代技术都需要一些时间,所以实际的护城河还是很宽。
44.大厂有现成的用户,但它的现金流业务也是它的包袱,也会让它成为随时被颠覆的对象。
45.大模型勇于探索商业模式的公司可能活下来2到3家。现在都还处在烧钱阶段,那些自我定位清晰、更能精细化运营的,更有机会活下来。其它公司可能会脱胎换骨。有价值的东西不会烟消云散,但会换一种方式。
46.我经常思考的是,一个东西能不能让社会的运行效率变高,以及你能否在它的产业分工链条上找到擅长的位置。只要终局是让社会效率更高,就是成立的。中间很多都是阶段性的,过度关注必然眼花缭乱。
47.我们发布的V2模型没有海外回来的人,都是本土的。前50名顶尖人才可能不在中国,但我们能自己打造这样的人。
48.DeepSeek也全是自下而上的。而且我们一般不前置分工,而是自然分工。每个人有自己独特的成长经历,都是自带想法的,不需要push他。探索过程中,他遇上问题,自己就会拉人讨论。不过当一个idea显示出潜力,我们也会自上而下地去调配资源。
49.我们每个人对于卡和人的调动是不设上限的。如果有想法,每个人随便什么时间都能调用训练集群的卡无需审批,同时因为不存在层级和跨部门,也可以灵活调用所有人,只要对方也有兴趣。
50.我们选人的标准一直都是热爱和好奇心,所以很多人会有一些奇特的经历,很有意思。很多人对做研究的渴望,远超对钱的在意。
51.创新首先是一个信念问题。为什么硅谷那么有创新精神?首先是敢。Chatgpt出来时,整个国内对做前沿创新都缺乏信心,从投资人到大厂,都觉得差距太大了,还是做应用吧。但创新第一步是要自信,这种信心通常在年轻人身上更明显。
54.AGI可能是2年、5年或者10年,总之会在我们有生之年实现。至于路线图,即使在我们企业内部,也没有统一意见。但我们确实押注了三个方向:一是数学和代码,二是多模态,三是自然语言本身。数学和代码是AGI天然的试验场,有点像围棋,是一个封闭的、可验证的系统,有可能通过自我学习就能实现很高的智能。另一方面,多模态、参与到人类的真实世界里学习,对AGI也是必要的。我们对一切可能性都保持开放。
55.未来会有专门企业来提供基础模型和基础服务,会有很长链条的专业分工。更多人在之上去满足整个社会多样化的需求。
57.所有的套路都是上一代的产物,未来不一定成立。拿互联网的商业逻辑去讨论未来AI的盈利模式,就像马化腾创业时,你去讨论通用电气和可口可乐一样,很可能是一种刻舟求剑。
58.我们经历了一个漫长的积累过程,外部看到的是幻方2015年后的部分,但其实我们做了16年。
59.未来中国产业体系的调整,会更依赖硬核技术的创新。当很多人发现过去赚快钱很可能来自时代运气,就会更愿意俯身去做线.未来硬核创新会慢慢的多,现在还不容易被理解,是因为整个社会群体需要被事实教育。当这个社会让硬核创新的人功成名就,群体性想法就会改变,我们只是还需要一堆事实和一个过程。
Copyright © 2008-2020 lovebet爱博app下载矿用振动筛厂家- 鼎全娱乐app官网最新版介绍-鼎博娱乐app官网版下载安装 All Rights Reserved 版权所有 免责声明
网站备案号:豫ICP备09002479号-45