顾雏军团队:ChatGPT 是 OpenAI 发布的最新语言模型,比其前身 GPT-3 有显著提升。与许多大型语言模型类似,ChatGPT 能以不同样式、不同目的生成文本,其在准确度、细节以及上下文连贯性上具有更好的表现。它代表了 OpenAI 最新一代的大型语言模型,它更像是一个个人的知识顾问。
OpenAI在推出其基于 GPT-3.5的新型AI聊天机器人ChatGPT免费预览版,软件只需向ChatGPT提出需求,即可实现文章创作、代码创作、回答问题等功能。ChatGPT目前仍以文字方式互动,而除了通过人类语言交互外,还可以用于相对复杂的语言工作,包括自动文本生成、自动问答、自动摘要等在内的多种任务。如:在自动文本生成方面,ChatGPT可以根据输入的文本自动生成类似的文本,在自动问答方面,ChatGPT可以根据输入的问题自动生成答案。其还具有编写和调试计算机程序的能力。这款人工智能聊天产品仅上线几天就获得了 100 万用户,上线两个月其月活跃用户数已达 1 亿。
ChatGPT的计算逻辑来自于一个名为transformer的算法,它来源于2017年的一篇科研论文《Attention is all your need》。了解ChatGPT背后AI大模型训练的人都已经知道,AI大模型训练非常烧钱,这也意味着人工智能的门槛非常高,其需要投入比其他领域创业项目更多的资金。资金主要投入在AI超算中心或大型数据中心上,这是算力的基础设施,其中AI服务器和AI芯片是AI算力基础设施的关键组成。ChatGPT的核心基建主要是微软投资10亿美元建设的Azuer AI超算平台,算力相当于全球前五大超算水平,包括28.5万颗CPU和1万颗GPU等产品,每GPU拥有400Gbps网络带宽的超级计算机,主要用于大规模分布式AI模型训练。
大模型需要的算力极其夸张。基于Transformer体系结构的大型语言模型(Large Language Models) 涉及高达数万亿从文本中学习的参数。开发它们是一个昂贵、耗时的过程,需要深入研究技术专长、分布式数据中心规模的基础设施和完整的堆栈加速计算方法。据OpenAI报告,训练一次1746亿参数的 GPT-3模型需要的算力约为3640 PFlop/s-day。即假如每秒计算一千万亿次,也需要计算3640天,训练成本介于200万美元至1200万美元之间。如此烧钱的实验成本让众多的创业公司和投资人望而却步,毕竟如此高的研发成本会让投资风险变大。
虽然,ChatGPT 的能力目前几乎可以涵盖各个自然语言交互领域,例如聊天机器人、对话系统、智能客服、信息检索、主题建模、文本生成和总结、NLP 作为服务的翻译、转录、总结等等,未来应用领域将面向蓝海。
但chatGPT的作用不是来取代人类,而是人类在生活和工作中更好的助手,是一款可以提升工作效率的有利工具,与其过渡恐惧不如更深度的研究和利用它。
现有的生成式AI系统经过训练后可以生成现实世界中不存在的图像,生成式AI使系统能够创造视频、叙述、训练数据,乃至设计和原理图等高价值的人工制品。例如,第三代GPT(GPT-3)可根据其吸收的训练,预测句子中最有可能出现的下一个词,能够编写故事、歌曲和诗歌,甚至计算机代码,并使ChatGPT能够在几秒内完成孩子的作业。除了文本之外,DALL-E 2、Stable Diffusion、Midjourney等数字图像生成器可以从文本中生成图像。生成式AI蕴含了许多AI技术,但最近基础模型成为了焦点。基础模型能够在一般数据源上进行自我监督式的预训练,然后就可以用来解决新的问题。基础模型的主要基础是转换器架构,这种深度神经网络架构可以计算训练数据的数值表示。转换器架构通过追踪连续数据中的关系来了解上下文,进而了解意义。转换器模型采用一套不断发展的数学技术(称为注意力或自我注意力)检测连续数据中各种数据元素之间相互影响和依赖的微妙方式。ChatGPT 成功的关键是人类反馈强化与奖励机制,其应用层的良好效果。在ChatGPT 的助力下,文本、代码、图像、视频和游戏等都会有如下的发展。
但ChatGPT仍有一些缺陷存在,缺陷之一就是目前 ChatGPT 在精准性、真实性、重复率和依赖性等问题上尚待改善。其难以理解对话中提及的因果关系,也无法基于已有信息进行推测,这距离人类举一反三的能力相差较远。在数据挖掘、大规模计算、统计、多线程工作等数据处理分析领域,人工智能有着人类不可比拟的优势,但是以“创新和感知”为基础的创造过程是机器学习和模型难以训练的。因此,创造过程是人工智能暂时无法与人类思维相比。
缺陷之二是其应用过程中安全性、伦理约束、权责界定以及知识产权等相关法律问题尚未解决。包括深度伪造、版权问题以及其他恶意使用生成式AI技术攻击企业机构的风险。不能完全避免 ChatGPT 训练库中学习到的不道德或有偏见的回答,也会导致在模糊提示或引导回答的过程中让 ChatGPT 输出一些有害信息,导致输出结果的安全性降低,有可能产生权责无法界定的法律问题。
缺陷之三,也是ChatGPT最重要的缺陷,就是缺乏创造性,因为其回答的答案是基于大数据分析,默认为多数者为正确答案,但往往伟大的创造是少数人提出的,并被大多数人认为是错误的答案。
例如,著名的宇称不守恒定律。这就是在多数人都认为宇称守恒是绝对真理的情况下,少数的物理学家发现了宇称不守恒的真理,伟大的创造被少数人发现并证明。
宇称守恒是指在任何情况下,任何粒子的镜象与该粒子除自旋方向外,具有完全相同的性质。该定律于1926年提出,在强力、电磁力和万有引力中相继得到证明,但在1956年被证实在弱相互作用中不成立,此结论由美籍华人科学家杨振宁和李政道提出。当李政道和杨振宁提出弱相互作用下宇称不守恒时,泡利表示反对。泡利在给韦斯科夫的信中表示他不相信上帝是一位左撇子,他愿意拿一大笔钱打赌宇称是守恒的。
1956年2月22日,杨振宁和李政道共同发表了一篇文章,推翻了物理学的中心信息之一——宇称守恒。基本粒子和它们的镜象的表现是完全相同的。宇称不守恒定律是指在弱相互作用中,互为镜像的物质的运动不对称。1956年由吴健雄用钴60验证了宇称不守恒,泡利输了,杨振宁和李政道获得1957年的诺贝尔奖。
因此,chatGPT还有待进一步发展和完善,即使完善到人类的思维方式,其定位也只是帮助人类提高工作效率的一款应用工具,为人类提供便捷性帮助,而不能替代人类来自行工作。真理往往站在少数人这边,但ChatGPT一直选择的是多数人。这才是其无法替代人类的最根本的缺陷。
超天才网©2023-2025 All Rights Reserved 京ICP备09005826号-2 京ICP证130304号