近日消息,OpenAI的CEO山姆·奥特曼通过个人博客平台发表了一篇前瞻性的文章,他在文中展望了即将来临的“智慧纪元”(Age of Intelligence),预估在接下来的数十年间,人工智能技术将成为驱动全球经济飞跃增长的关键力量。
展望 AI 未来
阿尔特曼在博文中写道,人类正在进入一个由人工智能驱动的新时代。他预测 AI 系统将很快成为个人助理,提供定制教育,甚至帮助医疗保健,最终 AI 系统甚至可能独立完成科学发现。
阿尔特曼在博文中认为“超级智能 AI”(superintelligent AI)可能需要更长的发展周期,但预估会在未来“几千天内”(in a few thousand days)出现。
深度学习是关键
阿尔特曼强调深度学习是实现该进展的关键:
深度学习很有效,随着规模的扩大,它的效果也会越来越好,我们为此投入了越来越多的资源。
以下描述的场景即将成为现实:人类发现了一种算法,它可以真正地、真正地学习任何数据分布(或者说,产生任何数据分布的基本“规则”)。
在令人震惊的精确度上,可用的计算和数据越多,它就越能帮助人们解决棘手的问题 "。
未来 AI 依赖大规模计算
但他表示,要充分发挥人工智能的潜力,必须大规模扩展计算能力。否则,人工智能可能会变得稀缺并引发冲突。OpenAI 正在与微软合作开展大型数据中心项目。
AI 对就业影响
援引阿尔特曼观点,现有的种种情况表明,AI 会严重干扰就业市场。但他认为,总体而言,社会效益将大于负面影响。从长远来看,他认为人工智能可能有助于解决气候变化、太空探索和物理学等重大挑战。
阿尔特曼写道:
人与生俱来就有创造和相互利用的欲望,而人工智能将让我们前所未有地放大自己的能力。
近日消息,OpenAI 发推表示,推出了 OpenAI o1-preview 模型——名字的含义之前外媒已经爆料过,o1 应该代表着 OpenAI 下一代大模型的 Orion(猎户座)一代。
OpenAI 在发布文档中写道,新模型在推理能力上代表了人工智能能力的新水平,因此,计数器将重置为 1——这意味着未来很可能不会有 GPT-5 了,o1 将代表未来 OpenAI 的最强水平。
且从今天开始,ChatGPTPlus 和 Team 用户就能够直接访问模型。
用户可以手动选择使用 o1 模型的预览版——o1-preview,或者使用 o1 模型的小尺寸版——o1-mini。o1-preview 的每周限制为 30 条消息,o1-mini 的每周限制为 50 条。
在 OpenAI 的模型介绍网页上,可以看到 o1 模型的训练数据截止时间为去年十月份,而最早的 Q*项目的爆料,正好大概出现在去年十一月份。
近日消息,在OpenAI实施的“防备框架”评估体系内,其新推出的o1 AI模型被评定为“中等风险”级别,此举反映出公司在管理高级人工智能模型潜在影响方面的审慎态度和风险管理措施。
防备框架简介
曾于 2023 年 12 月报道,OpenAI 成立了新的“防备”(Preparedness)团队,并提出“防备框架”指导方针。
防备团队将反复评估 OpenAI 最先进、尚未发布的 AI 模型,根据不同类型的感知风险评为四个等级,从低到高依次是“低”、“中”、“高”和“严重”。根据新的指导方针,OpenAI 将只推出评级为“低”和“中”的模型。
OpenAI o1 模型
OpenAI 公司在官方新闻稿中表示,最终确定 o1 模型归类为“中等风险”主要有以下两个原因:
类人推理能力
o1 模型展现出类似人类的推理能力,并能在类似主题上产生与人类撰写同样令人信服的论点。
这种说服力并非 o1 独有,先前的 AI 模型也已展示出此能力,有时甚至超越人类表现。
可辅助制作生物武器
评估显示,o1 模型能辅助专家复制已知生物武器威胁。
OpenAI 宣称,o1 模型显著提升数学和科学领域的能力。
例如,在全美奥林匹克数学队()USA Mathematical Olympiad,简称 USAMO)的预选赛中,新模型的表现能跻身美国前 500 名学生之列,并且在物理、生物和化学问题的基准测试中,准确度超过了人类博士水平。
OpenAI 首次将其模型在化学、生物、放射性和核武器(CBRN)风险方面的评级定为“中性”。这些模型的发布伴随着对其潜在危险的多次警告。
mobile3g.cn 版权所有 (C)2011 https://www.mobile3g.cn All Rights Reserved 渝ICP备20008086号-42