温馨提示 X

目前该板块仅对超天才会员开放,成为超天才会员,享更多特权

加入超天才会员

人工智能软件Chatgpt它真的可以替代人来工作吗?

  顾雏军团队:ChatGPT OpenAI 发布的最新语言模型,比其前身 GPT-3 有显著提升。与许多大型语言模型类似,ChatGPT 能以不同样式、不同目的生成文本,其在准确度、细节以及上下文连贯性上具有更好的表现。它代表了 OpenAI 最新一代的大型语言模型,它更像是一个个人的知识顾问。

  OpenAI在推出其基于 GPT-3.5的新型AI聊天机器人ChatGPT免费预览版,软件只需向ChatGPT提出需求,即可实现文章创作、代码创作、回答问题等功能。ChatGPT目前仍以文字方式互动,而除了通过人类语言交互外,还可以用于相对复杂的语言工作,包括自动文本生成、自动问答、自动摘要等在内的多种任务。如:在自动文本生成方面,ChatGPT可以根据输入的文本自动生成类似的文本,在自动问答方面,ChatGPT可以根据输入的问题自动生成答案。其还具有编写和调试计算机程序的能力。这款人工智能聊天产品仅上线几天就获得了 100 万用户,上线两个月其月活跃用户数已达 1 亿。

  ChatGPT的计算逻辑来自于一个名为transformer的算法,它来源于2017年的一篇科研论文《Attention is all your need》。了解ChatGPT背后AI大模型训练的人都已经知道,AI大模型训练非常烧钱,这也意味着人工智能的门槛非常高,其需要投入比其他领域创业项目更多的资金。资金主要投入在AI超算中心或大型数据中心上,这是算力的基础设施,其中AI服务器AI芯片是AI算力基础设施的关键组成。ChatGPT的核心基建主要是微软投资10亿美元建设的Azuer AI超算平台,算力相当于全球前五大超算水平,包括28.5万颗CPU1万颗GPU等产品,每GPU拥有400Gbps网络带宽的超级计算机,主要用于大规模分布式AI模型训练。

  大模型需要的算力极其夸张。基于Transformer体系结构的大型语言模型(Large Language Models) 涉及高达数万亿从文本中学习的参数。开发它们是一个昂贵、耗时的过程,需要深入研究技术专长、分布式数据中心规模的基础设施和完整的堆栈加速计算方法。据OpenAI报告,训练一次1746亿参数的 GPT-3模型需要的算力约为3640 PFlop/s-day。即假如每秒计算一千万亿次,也需要计算3640训练成本介于200万美元至1200万美元之间。如此烧钱的实验成本让众多的创业公司和投资人望而却步,毕竟如此高的研发成本会让投资风险变大。

  虽然,ChatGPT 的能力目前几乎可以涵盖各个自然语言交互领域,例如聊天机器人、对话系统、智能客服、信息检索、主题建模、文本生成和总结、NLP 作为服务的翻译、转录、总结等等,未来应用领域将面向蓝海。

  但chatGPT的作用不是来取代人类,而是人类在生活和工作中更好的助手,是一款可以提升工作效率的有利工具,与其过渡恐惧不如更深度的研究和利用它。

  现有的生成式AI系统经过训练后可以生成现实世界中不存在的图像,生成式AI使系统能够创造视频、叙述、训练数据,乃至设计和原理图等高价值的人工制品。例如,第三代GPTGPT-3)可根据其吸收的训练,预测句子中最有可能出现的下一个词,能够编写故事、歌曲和诗歌,甚至计算机代码,并使ChatGPT能够在几秒内完成孩子的作业。除了文本之外,DALL-E 2Stable DiffusionMidjourney等数字图像生成器可以从文本中生成图像。生成式AI蕴含了许多AI技术,但最近基础模型成为了焦点。基础模型能够在一般数据源上进行自我监督式的预训练,然后就可以用来解决新的问题。基础模型的主要基础是转换器架构,这种深度神经网络架构可以计算训练数据的数值表示。转换器架构通过追踪连续数据中的关系来了解上下文,进而了解意义。转换器模型采用一套不断发展的数学技术(称为注意力或自我注意力)检测连续数据中各种数据元素之间相互影响和依赖的微妙方式。ChatGPT 成功的关键是人类反馈强化与奖励机制,其应用层的良好效果。在ChatGPT 的助力下,文本、代码、图像、视频和游戏等都会有如下的发展。

  1. 在文本生成领域,AI 在文章润色、拼写检查修改等辅助性写作领域的能力将更加稳定,除此外,自然语言生成能力的提升赋予 AI 更好地完成结构化程度较高的文本初稿,例如电子邮件、新闻等领域,甚至在一些非结构化的文章,例如社交媒体、广告营销、文学等领域的创作也能提供帮助;理解归纳能力的提升将推动大量办公辅助类工具的落地,例如会议纪要、文档翻译、笔记管理等,提高整体办公效率。
  2. 在代码开发领域,基于上下文理解能力,AI 进行代码注释、代码补全或代码检查的 相关应用将有可能在短期内落地。虽然与文本生成的底层技术相类似,但是代码生成对 AI 工 具的稳定性、以及自然语言和代码的相互转换的精准性提出了更高的要求。目前已有海外公司 研发出稳定的 AI 辅助工具,可以实时显示代码示例并提供错误反馈。
  3. 在智能问答领域,目前 AI 文本生成的技术已相对成熟,理解能力和表达能力的提升 突破了现有客服“回答千篇一律、答非所问”的情况。未来,从底层模型的微调和强化将使得模 型分化出不同的技能树,或将在“问题解决、服务效率和使用体验”等三个方面全面提升用户的 使用体验。
  4. 在图像生成领域,目前 GPT 模型的图像生成能力相对弱于 Diffusion 模型,但是在 利用 GPT 生成文字提示的基础上,AI 可以根据扩散模型生成更优质的 AI 绘画作品。未来, 传统图片编辑能力将大幅提升,抠图、去除特定主体等技术将更加优化,AI 按照文字提示或 者示意图生成图片的能力将进一步提升。
  5. 在视频、游戏和 3D 领域,所需底层技术更多,技术能力更加交叉,需要以目前已 有模型作为基础技术实现。以视频领域为例,视频是音频和图像的结合,语音合成目前已有所 探索,但是耗时和相似度还有所欠缺,要实现完全自然的人类语音的合成仍然需要时间的积累。 目前对 AI 视频生成的探索中,应用场景、素材选择的限制仍然较多,在未来音频和图像领域 发展到更加成熟的阶段后,视频生成或许将拥有更大的自由度。

  但ChatGPT仍有一些缺陷存在,缺陷之一就是目前 ChatGPT 在精准性、真实性、重复率和依赖性等问题上尚待改善。其难以理解对话中提及的因果关系,也无法基于已有信息进行推测,这距离人类举一反三的能力相差较远。在数据挖掘、大规模计算、统计、多线程工作等数据处理分析领域,人工智能有着人类不可比拟的优势,但是以创新和感知为基础的创造过程是机器学习和模型难以训练的。因此,创造过程是人工智能暂时无法与人类思维相比。

  缺陷之二其应用过程中安全性、伦理约束、权责界定以及知识产权等相关法律问题尚未解决。包括深度伪造、版权问题以及其他恶意使用生成式AI技术攻击企业机构的风险。不能完全避免 ChatGPT 训练库中学习到的不道德或有偏见的回答,也会导致在模糊提示或引导回答的过程中让 ChatGPT 输出一些有害信息,导致输出结果的安全性降低,有可能产生权责无法界定的法律问题。

  缺陷之三,也是ChatGPT最重要的缺陷,就是缺乏创造性,因为其回答的答案是基于大数据分析,默认为多数者为正确答案,但往往伟大的创造是少数人提出的,并被大多数人认为是错误的答案。

  例如,著名的宇称不守恒定律。这就是在多数人都认为宇称守恒是绝对真理的情况下,少数的物理学家发现了宇称不守恒的真理,伟大的创造被少数人发现并证明。

  宇称守恒是指在任何情况下,任何粒子的镜象与该粒子除自旋方向外,具有完全相同的性质。该定律于1926年提出,在强力、电磁力和万有引力中相继得到证明,但在1956年被证实在弱相互作用中不成立,此结论由美籍华人科学家杨振宁和李政道提出。李政道和杨振宁提出弱相互作用下宇称不守恒,泡利表示反对。泡利在给韦斯科夫的信中表示他不相信上帝是一位左撇子,他愿意拿一大笔钱打赌宇称是守恒的。

  1956222日,杨振宁和李政道共同发表了一篇文章,推翻了物理学的中心信息之一——宇称守恒。基本粒子和它们的镜象的表现是完全相同的。宇称不守恒定律是指在弱相互作用中,互为镜像的物质的运动不对称。1956年由吴健雄用钴60验证了宇称不守恒,泡利输了,杨振宁和李政道获得1957年的诺贝尔奖。

  因此,chatGPT还有待进一步发展和完善,即使完善到人类的思维方式,其定位也只是帮助人类提高工作效率的一款应用工具,为人类提供便捷性帮助,而不能替代人类来自行工作。真理往往站在少数人这边,但ChatGPT一直选择的是多数人。这才是其无法替代人类的最根本的缺陷。