由于对大语言模型原理完全 0 知识储备,大佬勿喷啊 现在个人设备可以运行 ollama 使用某些模型,w3c 也有像 WebGPU 这样的 API 可以调用用户设备算力,是不是说未来 ai 的方向会更趋向于不需要联网的终端应用?那些大公司花钱买那么多 GPU 堆算力的目的是什么?

最新回复 (7)
  • passive5月前
    引用2
    只能问当下。当下两种都有应用的场景。

    评论里说未来怎样的,都只能参考。谁知道未来会有什么牛逼的原理、算法、硬件。

    要是我真能知道未来,我就能赚大钱。
  • murmur5月前
    引用3
    肯定是双管齐下,小爱今年要开全平台 AI ,包括智能音箱

    本地 AI 就做抠图 补图 这些东西
  • piero665月前
    引用4
    agi 出现后本地部署模型可能会拉开差距,但一定会有中间件调用云端 agi 来增强本地 llm 的
  • mwuxlcanrh5月前
    引用5
    LLM 服务的小型轻量化和能力强化都有价值。但是很难让物联网设备去 run ,云服务更有意义。
  • ztm09295月前
    引用6
    本地和云并不是非此即彼的对抗,微软推 Phi ,OpenAI 推 GPT-4o mini ,Apple 推 OpenELM 。这些大佬都在全面布局以上设备端小模型的同时继续升级已有的联网大模型。

    未来的方向就是强隐私的、聚焦的、追求极速的任务由本地芯片调用小模型完成,通用的、宽泛的、不追求速度的任务交给联网大模型解决。

    那些大公司买 GPU 就是为了训练自家模型然后作为服务卖给用户啊????典型的就是百度
  • raw0xff楼主5月前
    引用7
    @ztm0929 是不是训练迭代自家模型的同时再开放给付费用户还能收回一些成本。
  • ztm09295月前
    引用8
    @raw0xff 作为服务带来的直接的经济回报我就不太清楚,大概率不理想,就连 OpenAI 也在长期大量的亏损中(我不确定现在如何),百度 Robin (李彦宏)这么急也就不难理解了(经典言论:开源是“智商税”),言下之意就是我投入了这么多前期成本,大家快点来买我的服务。

    但作为大企业提前购置显卡还是非常有必要的,AI 时代里的显卡算力、电力、数据就相当于传统的石油,谁拥有多谁就更有可能有话语权。
  • 回复请 登录 or 快速注册
返回