网站首页

产品中心

新闻中心

关于必威

公司概况 核心优势

联系我们

官方微信 官方微博
主页 > 产品中心

必威李飞飞吴恩达等 2024 年 AI 十大预测!GPU 短缺AI 智能体一年内大爆发

发布时间:2024-10-02 18:49浏览次数: 来源于:网络

  必威2023 这个大模型爆发的元年即将过去,展望未来,比尔盖茨,李飞飞,吴恩达等人对 2024 年人工智能的发展作出了自己的预测。

  这一年中,AI 和 AI 公司的各种变革,让我们震惊,也成为我们茶余饭后的瓜果。

  这一年中,生成式 AI 取得了重大进展,使得人工智能初创公司吸引了大量资金。

  人工智能领域的大佬们开始讨论 AGI 的可能性,政策制定者开始认真对待人工智能监管。

  但在人工智能和科技行业们的领袖眼中,AI 浪潮可能才刚刚起步。之后的每一年,可能都是浪潮最汹涌澎湃的一年。

  比尔盖茨,李飞飞,吴恩达等人,都在最近对未来 AI 的发展趋势谈了自己的看法。

  他们都不约而同地谈到了期待更大的多模态模型、更令人兴奋的新功能,以及围绕我们如何使用和监管这项技术的更多对线 个问题

  比尔盖茨认为,AI 作为目前地球范围内影响最深远地创新技术,将会在 3 年内彻底席卷全球。

  盖茨在博文中表示,2023 年是他第一次在工作中出于「严肃的原因」使用人工智能。

  与前几年相比,世界对 AI 能够自己完成哪些工作以及「充当哪些工作的辅助工具」有了更好的认识。

  基于他自己获得的数据和观察体验,他表示行业应该吸取的一个最重要的教训是:产品必须适合使用它的人。

  他举了一个简单的例子,巴基斯坦人通常互相发送语音留言,而不是发送短信或电子邮件。因此,创建一个依赖语音命令而不是输入长查询的应用程序是有意义的。

  从他本人最关心的角度,盖茨提出了 5 个问题,希望工智能可以在相关领域发挥巨大作用:

  在他看来,目前人工智能的相关监管措施对防止某些问题产生几乎没有任何效果。这样无效的监管除了会阻碍技术的进步,不会有任何正面的受益。

  他举了最近美国政府让大科技公司自我承诺对 AI 生成内容自行添加「水印」,来应对虚假信息等问题为例。

  在他看来,自从白宫自愿承诺以来,一些公司反而不再对文本内容加水印。因此,他认为自愿承诺方法作为一种监管方法是失败的。

  而另一方面,如果监管机构将这种无效的监管移植到诸如「监管开源 AI」等问题上,很有可能会完全扼杀开源的发展并且造成大型科技公司的垄断。

  吴恩达重申,实际上,他希望政府能够亲自动手并制定良好的监管规定,而不是现在看到的糟糕的监管提案。所以他并不主张放手不管。但在糟糕的监管和没有监管之间,他宁愿没有监管。

  「我所看到的科学证据来看,人工智能模型确实可以构建世界模型。因此,如果人工智能有一个世界模型,那么我倾向于相信它确实理解世界。但这是我自己对理解一词含义的理解。

  如果你有一个世界模型,那么你就会了解世界如何运作,并可以预测它在不同场景下如何演变。有科学证据表明,LLM 在接受大量数据训练后,确实可以建立一个世界模型。」

  而知识工作者将受到前所未有的影响,比如创意工作者、律师、金融学教授的工作将发生很大变化。

  我们应该接受人工智能带来的改变,让我们的工作变得更好,让我们能做以前做不到的新事情必威。

  我们将看到 OpenAI 等公司和更多的初创公司,发布下一个更大的模型。

  我们仍然会看到很多关于「这是 AGI 吗?什么是 AGI?」的讨论,—— 但我们不必担心人工智能会接管世界,这都是炒作。

  大公司们都在尝试将 AI 功能引入内部,而英伟达等 GPU 制造商已经满负荷运转。

  GPU,或者说 AI 的算力,代表了新的时代的竞争力,对于公司甚至是国家来说都是如此。

  对于 GPU 的争夺也会给创新者带来巨大的压力,他们需要提出更便宜、更易于制造和使用的硬件解决方案。

  想要达到大规模商用,这项工作还有很长的路要走,但为了实现人工智能技术的民主化,我们必须继续前进。

  2023 年是能够与 AI 聊天的一年,人们与 AI 的关系只是通过输入和输出来进行的互动。

  而到了 2024 年,我们将看到代理为人类完成工作的能力,—— 进行预订、计划旅行等等。

  到目前为止,人们已经非常关注语言模型,然后是图像模型。之后,我们也将有足够的处理能力来发展视频模型,—— 这将非常有趣。

  我们现在正在训练的东西都是非常有目的性的,—— 人们在页面和段落中写下自己认为有趣和重要的事情;人们利用相机记录某些正在发生的事。

  但是对于视频来说,有些摄像机可以 24 小时运行,它们捕捉发生的事情,没有任何过滤,没有任何目的性的筛选。

  我们的政策应该保障学生和研究人员能够获得 AI 资源、数据和工具,以此来提供更多人工智能开发的机会。

  所以,政策除了要致力于培养充满活力的人工智能生态系统,还应致力于利用和管理人工智能技术。

  我们需要给自己留出时间和空间,来思考什么是允许的,以及我们应该在哪些方面做出限制。

  早在今年 2 月,学术期刊出版商 Springer Publishing 就发表了一份声明,表示可以在起草文章时使用大型语言模型,但不允许在任何出版物上作为合著者。他们引用的理由是问责制,这一点非常重要。

  —— 认真地把一些东西摆在那里,阐述理由是什么,并表示这就是现在的理解方式,将来可能会在政策中加入更多改进。

  虽然这些法规仅限于,对个人信息进行训练或收集的人工智能系统,但两者都为消费者提供了选择,即是否允许某些系统使用 AI 以及个人信息。

  公司将不得不开始思考,当客户行使他们的权利时(特别是集体行使权利时),将意味着什么。

  比如一家使用人工智能来协助招聘流程的大公司,如果数百名应聘者都拒绝使用 AI,那要怎么办?必须人工审查这些简历吗?这又有什么不同?人类能够做的更好吗?—— 我们才刚刚开始解决这些问题。

  广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下一篇:必威海信AI电视E7N正式发布:推出行业首创十二大AI智能体 引领画质新标杆
上一篇:必威触摸AI发展新脉动——2024世界人工智能大会观察

咨询我们

输入您的疑问及需求发送邮箱给我们