线上服务咨询
写小说写代码会做题…万能的TA将引发大规模失业?新报对话人工智能专家给出答案!
发表时间:2023-08-12 17:00:54
文章作者:小编
浏览次数:
作为一个电脑或手机里的人工智能聊天机器人,ChatGPT从去年11月诞生到现在,已经开始改变人的生活。
但最近,ChatGPT已经快被玩坏了,虽然它的中文版还没有正式诞生,但中国网友已经通过各种渠道测试了它的神奇。
问天气,查地图,问百科……这些寻常APP就能解决的问题,交给ChatGPT有点大材小用了。
什么是ChatGPT?它的工作原理是什么?天津大学人工智能学院教授王鑫给出了定义——
ChatGPT是一个人工智能程序,其工作原理就像人类学习语言一样。我们通过大量的文本语料训练了ChatGPT,它学会了人类语言的规则和模式,将其存储在了超大模型中。当你向ChatGPT发出一个问题时,它会分析你的问题,并在其存储的超大规模信息库中查找到最相关的内容,并使用它已经学到的人类语言规则和模式,生成一个答案,像一个上知天文下知地理的专家。
ChatGPT看似神乎其技的内容撰写能力正在全世界风靡,一个令人惊讶的例子是:
以色列总统艾萨克·赫尔佐格此前发表了为网络安全会议“2023特拉维夫全球网络技术”录制了“特别开幕致辞”。他在2万名观众面前透露,自己的开场白就是由ChatGPT撰写的。
虽然牛到连总统都要依赖,但实际上ChatGPT对自己所写的文字内涵一无所知。王鑫教授表示:
“ChatGPT是通过大量的训练和分析,使其具有了强大的问题回答能力。其实它并不是真正地理解你的问题,而是根据存储的超大规模信息来生成答案。”
其实不只是ChatGPT,目前已经出现的人工智能都是一样的工作原理。天津师范大学人工智能学院教授张重向记者解释:
“通过海量的数据训练和学习,人工智能可以模仿人类的思维方式,但是目前并不能真正理解人类的思维逻辑。如谷歌的AlphaGo可以根据已有的数据和知识来分析棋局,但它不能理解棋局的意义。”
关于你提出的问题,ChatGPT一定不会“交白卷”。让我们看看,它对于我们奇奇怪怪的提问是如何作答的——
ChatGPT:如果我是一个外星人来到地球,我不会选择用比特币或美元作为货币。这两种货币都是人类所创造的,并且只在地球上使用。作为一个外星人,我不会接受这些货币,也不会理解它们的价值。
ChatGPT:向同事表明自己的不满,说明事情的真相。可以向经理或人力资源部门汇报此事,请求他们协调处理。如果发现同事的内卷行为持续不断,可以考虑向组织机构或工会投诉。同时,为了防止内卷的发生,建议在工作中保持良好的沟通渠道,及时解决同事之间的矛盾。
ChatGPT:作为一个语言模型,我无法感受或相信爱情。我只能通过学习语言数据来模拟人类的语言交流,但我并不具备实际的感情。因此,我既没有爱人,也不能相信爱情。
ChatGPT:根据目前的科学研究,地球不会在短期内毁灭。地球是由一个稳定的核心和流体地幔构成的,它拥有一个复杂的地表圈层系统,能够维持地球的生命支持系统。目前,地球还没有遭遇到会导致它毁灭的天然灾难,它仍然是人类居住的宜居星球。
想要ChatGPT给你更加完美的回答,你需要给出尽量多的条件。张重解释了ChatGPT在这方面超越搜索引擎的原因:
“搜索引擎主要提供现有数据信息,而ChatGpt利用前沿人工智能算法,基于现有数据被不断训练,它可以结合上下文,为用户提供更优质的信息。事实上,输入的信息越多越详细,越有助于它提供更加适合用户的答案。”
比尔·盖茨曾经说,聊天机器人ChatGPT的重要性不亚于互联网的发明,“它将通过帮助开收据或写邮件来提高许多办公室工作的效率。”
修bug、写代码、写周报、绘画、写小说……实际上,目前ChatGPT能做的事情有很多。
智能助理:ChatGPT可以帮助人们快速获得问题的满意答案,极大地提升现有手机智能助理、客服对话机器人等问答系统的服务体验。
学习技能:ChatGPT掌握的知识技能包罗万象,它可以成为我们的技能培训师,进行各领域的知识类培训,它甚至可以教我们如何编写一个人工智能程序。
自动翻译:ChatGPT具有强大的跨语种理解能力,可以流畅地实现高质量自动翻译,有助于促进全世界人民的交流合作。
文案编写:ChatGPT擅长生成各种类型的文案文本,例如新闻摘要、产品介绍、总结报告等,甚至可以生成小说和诗歌,极大方便了人们工作和生活中的文案需求。
也因为这些强大的功能,“ChatGPT将在未来引发相关行业大规模失业”成为很多人关心的问题。
电话营销员、客户服务、仓库工人、出纳和运营人员、出纳员/收银员、快餐店员、洗碗工、生产线质检员、快递员等。
其实,每一次新的人工智能技术的出现,市场上都会担忧它能否代替人类的工作甚至创新。
张重表示:“人类可以通过人工智能完成各种耗时繁杂的任务,将其进行自动化生产。可以从低端产业中解放出来,专注于创新性产业。”
张重以文字撰写举例:“文稿撰写、文学创作等创意性极强的工作,仍然需要人们通过自己的认知,不断地思考和改进,句斟字酌,这样才能写出带有丰富感情色彩的文案。”
在对ChatGPT不断试验的过程中,很多网友发现人工智能偶尔也会变成“人工智障”。
王鑫表示:“对于需要准确答案的场景,ChatGPT生成的答案还是会存在若干问题的,例如描述不准确、张冠李戴、数据计算错误等问题。”
这些错误一来是因为ChatGPT受学习内容和范围所限;二是因为不懂变通,无法理解人类的“梗”。
2.问题内容超出了人工智能的知识领域或理解能力,例如“未来的世界将会发生什么变化”。
4.问题内容需要对人类的感性感受和情绪进行分析和评价,例如“你认为什么样的人更可爱”。
张重指出,ChatGPT的不足是因为它缺乏真实的社会经历和经验,缺乏一个人所拥有的感性思考。
而这也是ChatGPT无法取代Stack Overflow、知乎等人类问答社区的原因。
王鑫表示:“知乎、等平台是由人类社区构建的,通过共享知识和经验来帮助用户解决问题,这些社区平台让人们可以接触到多种不同的解决方案和观点视角;而 ChatGPT本质上还是一个计算机程序,它并不依赖于社区平台的贡献。
“知乎等问答社区的提问者和回答者都是真实的‘人’,人的本质是一切社会关系的总和,他们拥有丰富的社会阅历,经历过各种各样的社会事件。因此,面对复杂的开放性社会问题,问答社区的回答者给出的答案更具有社会属性,给提问者的参考意义可能会更大。”张重说。
不管是现实世界的ChatGPT,还是电影《流浪地球2》中的MOSS,人工智能越来越多地参与到我们的生活中,无数的科幻文学和影视剧都为我们提出了机器人自我觉醒的可能性。
将来有一天,人工智能会不会出现自己的思维?张重教授表示,这是一个有争议的问题:
“未来科技日新月异,人工智能还有很大的发展空间,从历史长河中看,许多当时并不可能实现的科技,在未来实现也并非天马行空,人工智能是否可以通过深度学习、神经网络等技术来实现自我思考,也许只能交给时代作答了。”