; b% o. ~3 B* P6 {2 V: ~7 R, TLevel 1 Stage AI: Chatbots: AI with conversational language. # _4 G8 W. ^) ~6 R6 pLevel 2 Stage AI: Reasoners: Human-level problem solving.4 L A% [) p3 B& H0 C& j7 g
Level 3 Stage AI: Agents: Systems that can take actions." h- ~$ H; O. `- R2 r
Level 4 Stage AI: Innovators: AI that can aid in invention. 6 P& W& Y* T0 r: S. e: v+ SLevel 5 Stage AI: Organizations: AI that can do the work of an organization19. 3 X% S3 P' z' [, _5 K这一路线图表明 OpenAI 正在逐步推进 AGI 的发展,并更加注重 AI 的实际应用 19。OpenAI 认为,第一个 AGI 只是智能连续体上的一个点,AI 的发展将会持续下去,并可能在很长一段时间内保持过去十年的发展速度 20。 $ O1 H* Y! ^ E$ { e9 W* S+ t7 G9 l! q5 e
这个五阶段路线图也与行业发展趋势相符 21。为了迎接每个阶段的到来,OpenAI 建议企业和组织采取相应的措施,例如培训团队学习如何与 AI 系统沟通、整理数据以供 AI 使用、以及将业务流程系统化 21。 5 M7 e% O7 G0 O' \% i! C9 T2 ^+ C# @# v5 A% L9 U2 [0 p
值得注意的是,OpenAI 对 AGI 的定义发生了微妙的转变。从最初强调经济效益,到如今更关注 AI 的综合能力和发展阶段,OpenAI 对 AGI 的理解更加全面和 nuanced 1。这可能是因为 AGI 本身的复杂性以及对其发展路径的不断探索所致。- E- p( g2 r$ j5 r
, g" R' y( t) p7 m% y! r4 w4 I伦理与安全挑战: O# o. P1 p/ O F9 e2 R) V
OpenAI 在追求 AGI 的过程中,也面临着伦理和安全方面的挑战。一些 AI 安全研究人员对 OpenAI 的发展方向表示担忧,认为 OpenAI 过于注重 AI 能力的提升,而忽视了安全和伦理问题 22。例如,OpenAI 的一些 AI 安全专家,如 Dario Amodei 和 Paul Christiano,已经离开了公司 7。7 L9 F' E" W7 |5 J
. `$ Y, f% [ x n( `' u( x
OpenAI 承认 AGI 发展带来的潜在风险,例如,一个未 alignment 的超级智能 AGI 可能会对世界造成严重危害;一个拥有 decisive 超级智能领导权的独裁政权也可能做到这一点 20。因此,OpenAI 也在积极探索如何确保 AGI 的安全性和 beneficiality,例如,他们认为广泛分享 AGI 的好处、获取途径和治理方式至关重要 20。* ^3 ?/ E2 Z2 m* F b