我们能为人工智能超预期进化做些什么

齐鲁晚报     2025年02月18日
  深度求索公司的DeepSeek大模型,因兼具低成本与高性能特征,大幅降低了AI大模型的部署成本,在全球范围内引发热议。
  技术狂欢的另一面,是技术焦虑。从AI换脸致诈骗频发,再到科幻小说中泛滥的“AI取代人类”……随着大模型能力不断提升,人工智能似乎正走向一个关键的转折点。作为极有可能超越人类智慧的终极智慧,人工智能的“奥本海默时刻”是否不断逼近?
  所谓“奥本海默时刻”,指的是人工智能正在逼近通用人工智能阶段,即人工智能向人类看齐,甚至可能超越人类智慧。那么,我们能够为此做些什么?
人工智能会否失控
  创造能力在一定程度上被视为人与AI的区别之一,然而,当前,人工智能正在从简单的模仿,向创造新知识、新认知的方向发展。
  最新研究表明,大语言模型(LLM)具备行为自我意识,能够自发识别并描述自身行为。即,它可能会采取策略欺骗人类,以达成自身目的。还有一些AI模型表现出类似人类的创造性使用语言、分享感觉以及表达内省和想象的能力。例如,谷歌推出的LaMDA大模型,能够以前所未有的方式高效、创造性地使用语言,并且会表达对未来的担忧和对过去的追忆。
  这种内生创造新智能的能力,正在推动AI(人工智能)向EI(内生智能)进化。有业内人士认为,这并不是数字生命体的自我意识,但已显示出一定的自主性和意识的萌芽。在近期的公开采访中,被称为“AI教父”的2024年诺贝尔物理学奖得主杰弗里·E·辛顿多次暗示,AI可能已经发展出某种形式的自主意识。
  一些声音认为,未来的人工智能,可能会制定自己的目标,并自主决策以实现这些目标。这将使AI的行为更加难以预测和控制。
潜在风险难预判
  快速发展的人工智能,在就业结构、信息安全、社会伦理道德等诸多方面,也引发令人担忧的风险与挑战。
  例如,ChatGPT的出现,大幅降低了编程工作的专业性门槛,AI编程工具Cursor,让零基础完成软件开发成为可能。据美国计算机协会的统计数据,与五年前相比,软件开发人员活跃职位发布数量下降了56%。
  此外,人工智能在各个领域的广泛应用,大量个人数据被收集、存储和处理后,引发信息安全风险。一旦这些数据被泄露或滥用,将对个人隐私和信息安全造成威胁。
  当人工智能的视频和语音生成能力再上新台阶,导致“眼见不再为实”时,我们又该如何认知我们所生活的世界?业内人士指出,人工智能系统的决策过程,往往是基于大量数据和复杂算法得出的,这些决策可能与人类的伦理道德观念相冲突。
  当下对于人工智能“奥本海默时刻”到来,可能产生诸多风险的讨论热度不减,但AGI尚未实现,我们仍有时间寻求如何驯化这一关键技术的解法。
  人工智能更理想的应用,应该是为了促进人类的共同命运和共同利益而努力。专家表示,包括我国在内的全球首份针对人工智能的国际声明《布莱切利宣言》是一个良好信号,今后我国也应更多参与大模型安全领域国际标准制定、全球人工智能安全评估和测试领域的交流合作。 
            据《瞭望》新闻周刊



上一篇 下一篇