客户端
游戏
无障碍

1

评论

17

23

手机看

微信扫一扫,随时随地看

干货满满!吴恩达亲授:小公司如何在AI竞争中弯道超车

AI划重点 · 全文约4428字,阅读需13分钟

1.人工智能专家吴恩达表示,小公司在AI竞争中有机会通过应用层面实现弯道超车,而非仅仅依赖模型训练。

2.他建议小公司利用开源模型降低成本,同时避免被单一模型“绑死”,搭建通用软件结构。

3.然而,吴恩达认为过度依赖开源模型可能导致安全隐患,因此公司在使用开源模型时需谨慎。

4.此外,他呼吁教育体系和评估体系适应AI时代,让学生更好地与AI合作。

5.吴恩达还提到,非技术专业人士在学习编程时,应关注基础概念而非过度担忧难度。

以上内容由腾讯混元大模型生成,仅供参考

(关注公众号设为🌟标,获取AI深度洞察)

图片

昨天,在2025年AI EXPO Taiwan 开幕后,全球AI领域的权威专家、深度学习先驱吴恩达博士接受了媒体的一场专访。在这场干货十足的对谈中,吴恩达不仅分享了他对生成式AI当下发展状况的犀利洞察,更为资源有限的中小企业提供了一套实用的AI竞争策略。

"大公司已经在模型训练上投入了数十亿美元,但这并不意味着小公司就没有机会,"吴恩达在采访中开门见山地表示,"实际上,AI的真正价值在于应用层面,而这恰恰是小公司可以充分发挥优势的领域。"

在当前AI技术迅猛发展的背景下,吴恩达的这番见解无疑为众多因资金和技术门槛而望而却步的小公司带来了一剂强心针。那么,小公司究竟该如何在AI大浪中找准自己的位置?如何利用有限资源在与巨头的竞争中实现弯道超车?以下是吴恩达的独家分享:

1、 开源模型成本

Q:您在 DeepSeek 推出后曾发表分析,指出扩大规模(Scaling Law)并非 AI 发展的唯一路径,您现在还持相同看法吗?此外,许多政府和企业对开源 AI 的安全性有所顾虑,您如何看待这个问题?

吴恩达: 我的看法是,一方面,开源或开放式模型对技术社区而言是非常了不起的贡献;但另一方面,它也与地缘政治和“软实力”挂钩。比如,当人们使用这些模型时,如果模型由某个国家或公司发布,模型就可能带有那一方的价值观或立场。这种“软实力”影响非常大。从供应链角度来看,开源或开放基础模型是 AI 产业链的重要一环,企业确实会用到它们。现在中国在开源模型(像一些以 Qwen 和 DeepSeek为基础的模型)上进展很快,效果也很好。至于其他国家,比如美国、印度等等,是否能进行足够的投入来在开源模型供应链中占据重要地位,目前还说不好。

对安全的担心,我觉得也很正常。有些公司确实比较保守,不太敢使用美国公司提供的 API,比如担心数据隐私等安全问题。不过,如果你能在自己的机器上、本地环境里托管模型,安全隐患就会小很多。况且现在也确实有很多初创公司在用诸如量化过的开源模型,既好用,又很便宜。至于公司或个人如何赶上这波 AI 热潮,但又没法自己训练大模型,我给的建议是:很多价值其实体现在应用层。如今有许多花了数十亿美元训练的大模型可以免费或很低成本地使用,我们完全能把它们用到各种垂直领域应用上。我们团队在做项目时,会想办法避免被单一模型“绑死”,会搭建一种通用软件结构,以便日后能快速替换或接入不同的 AI 模型。毕竟现在每隔三到六个月,就会有更强的新模型出现。

当然,这里还有一个问题:未来会怎么样?如果像中国这样的大规模投入,可能会在开源基础模型供应链中取得很大优势。如果其他国家或地区也想在基础层面拥有竞争力,那么就得加大对 AI 基础层、基础设施的投资。否则,大家只能在这些基础设施之上做应用,很难在最底层拥有话语权。

Q:有人认为 DeepSeek 的突破是建立在美国公司开源的基础上,您认为美国公司应该限制开源范围,或者美国政府应该介入监管开源吗?

吴恩达: 开源确实能让知识在国内外更快传播。的确,你开放了,别人也能用,但对你自身的好处会更大。而且,这也关乎“软实力”:如果全世界都在用某个国家发布的开源模型,那么当模型被问到有关领土、主权,或者某些争议性话题时,模型的回答可能会倾向于那个国家的价值观。对发布模型的一方来说,这其实是一种影响力。

在美国,有一些大公司投入巨资训练模型,然后隔一段时间就换一种说法,想办法通过立法或监管去限制开源的发展。比如曾经炒过 AI 有可能毁灭人类,或者 AI 可以被用来制造武器,后来又说“因为中国”之类的。其实很多都只是大公司为了自身商业利益而制造的恐慌,想减少竞争。如果真的压制开源,大多数人都会是受害者,只有少数美国公司可能因此维持或建立起垄断。对世界其他地方显然不是好事。至于我自己团队跟台湾的合作,目前没有新的正式公告。不过我们在台湾的人才和团队一直在扩张,有不少项目正在进行,也有很多软件和公司正在孵化中。

2、企业采用AI的策略

Q:我想请教一下关于生成式 AI 在实际应用中似乎并未达到预期热度的问题。您觉得企业在采用这类技术时遇到的主要挑战是什么?另外,针对这一领域的另一些热门话题,您怎么看待人们在使用这些新技术时可能面临的机遇和挑战?非常感谢。

吴恩达: 我并不觉得生成式 AI 没有达到预期的炒作水平。大约一年前,“生成式”还是个专业术语,主要指用迭代式的工作流程不断改进结果。从技术角度看,这条路走得挺顺利的。我们已经在医疗诊断、处理法律文档、信息分发等场景中,利用生成式工作流程做出了很多成功的应用,效果相当不错。然而,大约六个月前,一些大型公司的市场部门开始疯狂使用“生成式”这个概念,几乎到处都能看到这个词,这可能导致了过高的期望值。有些大公司的确出现了“市场宣传跑在技术前面”的现象。但如果站在实际应用层面看,生成式 AI 在很多地方的表现还是相当好的,而且我们也看到了很多结合这些工作流程而取得显著提升的项目。

我认为我们现在正处在早期阶段,大家可能还在摸索各种微调、改进和迭代的方式。至于最终行业是否会统一某些标准,还有待观察。但就技术本身而言,这些探索都是好的。还有一些人讨论所谓的代理通信协议(像是 MCP、ACP 等等),说让代理之间互相协助,可最终具体会不会形成某种通用标准,现在还太早下定论。不过我个人觉得这都是不错的想法。

Q:我们看到基础模型的发展有两个方向:一是扩展模型规模,二是增强推理能力。您认为哪个方向更具持续性?声音技术对使用者代理工作流程有何影响?

吴恩达: 我感觉有少数做大模型的公司具备强大的公关能力,成功地让大众对大模型的关注度大幅提高,这也让人们对“规模化训练”和“推理能力”的重要性产生了某种“被放大的印象”。诚然,这两者都很重要,但 AI 不只是大模型。实际上,AI 是由很多不同的工具组合而成,而大模型公司因为具备筹资、宣传等多方面资源,才会让大家以为只有大模型才是关键。就“规模化训练”来说,它现在能为模型带来很好的效果,尤其在某些任务上会比以往的模型更强。但它并不是魔法,对很多业务判断或商业决策方面的问题,它并不能自动给出完美答案。至于“推理模型”,它在数学、编程等确切领域表现很好,但放到商业场景里,也并非无所不能。

在我看来,现在更值得关注的还有“代理式工作流”——也就是如何把 AI 嵌入业务流程,使得大量应用有机地结合起来。另一个值得关注的领域是语音交互;多模型协同的进步让语音界面比以前更容易实现。对很多客服类场景,或者用户界面来说,让用户直接用声音和系统交互可能更有效率。我还想提一下“视觉 AI 工作流”,如今 AI 理解图像的能力越来越强,包括对文档的识别和提取。其实我们人类每年都会生成海量文档,像医疗报告、保险理赔、法律文件、PPT 等等——很多时候都还是图片或 PDF 形式。如果能用 AI 更好地解析并获取其中的信息,将极大提升生产力。总之,大模型只是 AI 的一部分,AI 的生态其实包含语音、视觉、文档处理、视频生成、代理式工作流等等,能一起协同提升很多行业的效率。

Q:许多公司认为拥有更便宜、更适合其特定使用情境的模型更为重要,您如何看待这个趋势?

吴恩达: 首先,降低写软件的成本和门槛本身是大势所趋。回顾计算机史:我们从打卡机到键盘终端,又从汇编语言发展到更高级的编程语言,然后出现了各种 IDE,如今 AI 辅助编程又把门槛降得更低。每次门槛降低,就会有更多人能够编程,自然也就会产生更多软件。的确,会有一些项目质量不高,但总体上对整个社会肯定是好事,就像当年互联网普及后,大家都可以随时发帖子、写文章,虽然也产生了良莠不齐的内容,但我们整体的信息交流效率却大幅提升。关于责任问题,只能说和“人人都有麦克风”一样,随着编程门槛降低,“人人都能写 App”,就会出现一些滥用或没考虑后果的情况。只能寄希望于随着大家对技术的理解加深,加之必要的监管或行业规范,能逐渐完善这种生态,但完全杜绝难度也很大。

至于“小模型”,就像计算机硬件一样:我们有超大算力的 GPU、CPU,也有笔记本、智能手表这样算力很弱的设备。因为任务种类不同,我们不可能每次都用最强的 GPU。同理,如果你只是要做简单的语法检查或基本的逻辑推断,就没必要用特别大的模型;但要做复杂的数学、编程或商业决策,可能就需要更大的模型。未来肯定会出现各种规模、针对不同任务优化的模型,而不只是一味追求大规模。

3、AI与教育

Q:您在文章中提过“10 倍工程师”(10x Engineer)以及其他领域的“10 倍专业人士”概念。您觉得这种“10 倍人才”会如何影响组织的团队结构和协作模式?另外,您也曾力陈“编程技能”依旧重要,即使 AI 很强,也不能完全忽视编程基础。那对于想让自己保持竞争力的商科、管理等非技术专业人士,您觉得他们应该优先学习哪些编程概念?

吴恩达: 现在在软件工程领域,我们发现有的工程师可以给团队带来远超普通人的贡献,我们就把这些人称为“10 倍工程师”。过去,公司是自上而下做决策,但如果团队里有人比管理者更懂具体业务,那就应该让最懂行的人来拍板决定,而不是让管理层独断。这意味着我们得把正确的数据和信息流转给最合适的人,而不是所有信息都流向单一上级。

“10 倍”人才并不仅仅存在于写代码的人。比如我团队里有个记者出身的小伙子——他自己写了个爬取 RSS 新闻源的脚本,每天自动帮他筛选最重要的新闻。他对自己工作流程的痛点最了解,所以他能想出这种点子,并用 AI 辅助的方式写出脚本。在没有 AI 帮助时,他也许需要很长时间才能写完代码,或者干脆就不会自己动手开发。但有了 AI,他可以把自己的业务见解转化为应用,这种创新我根本不可能事先告诉他“去怎么做”,因为我完全不知道他记者工作的细节。因此,当公司或团队里存在这种被赋能的个人时,自上而下的管理就显得没那么重要,反而是要确保大家拿得到所需的信息,能自由发挥。至于要不要学编程,我一直认为很多人对编程的难度有误解,以为很神秘、很难。其实编程有很多抽象概念没错,但也没有想象中那么可怕,尤其现在有 AI 辅助,很多基础功能的编码可以让 AI 帮着完成。你只要花一些星期或几个月的时间学基础,就可以写出很多对自己或公司有用的东西。

Q:作为一位 AI 教育者,您如何看待普通专业人士学习 AI 技能的门槛?

吴恩达: 我认为教育还需要点时间来适应这一变化。因为学生毕业后,在工作中几乎肯定会用到各种 AI 工具,所以我们不应该把学生培养成“过去时代的样子”,而应该让他们真正学会如何和 AI 合作。不过在教学过程中,一定程度的“独立思考”依旧非常重要,就像学乘法表时,还是要自己先动脑,而不是直接用计算器。在大学层面,这就更复杂了,因为大学生几乎无法被强制禁止使用 AI 工具。学校需要设置合理的教学和考核方式,确保学生该掌握的内容还是得掌握,比如在关键知识点上要求独立完成,或者在学习过程中规定什么时候可以用 AI,什么时候必须自己来。这方面各校还在探索中,毕竟变革来得很快,传统教学体系要跟上需要时间。

Q:您曾在演讲提到对孩子来说现在有 AI 可以运用,是很好的时代,但最近也有发生大学生创业者协助面试者用 AI 在 Google 等大公司的面试里作弊。你觉得整个教育体系怎么在 AI 时代里,重新调整评估体系?

吴恩达: 我们在 Coursera 等平台上已经做了不少实验,初步数据来看,如果能用 AI 给学生一些辅助性解答,比如关键提示而不是直接给答案,确实能有效提高完成率和满意度。至于帮老师批改作业,比如提供更迅速或更细致的反馈,这也在尝试中,效果还不错。另外,有个很有意思的案例:在美国田纳西州,一些体育老师(不是计算机专业)在教中小学计算机课。有了平台里集成的课程资源和 AI 辅助,老师也可以跟学生一起学习相关知识。老师在教学中主要提供社交和情感层面的支持,让学生不要怕“不会”或者“做错”,而技术内容就交给平台上更专业的教学资源和 AI 答疑系统。这种模式值得继续探索,虽然可能不适用于所有情境,但至少让那些原本没有计算机师资的学校也能开这类课程。

编辑:深思

主编: 图灵

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
00:34
8090后泪目!奇迹MU端游复刻,4月14日登录送卓越套装
广告奇迹MU怀旧版
了解详情
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部