ChatGPT帮你做学术,它是智能还是智障?


 

2016年,谷歌人机大战机器人AlphaGo,与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜,基于AI技术的人工智能登上银幕.....

无独有偶,近日一则重磅消息火爆全球,由OpenAI研发的人工智能(AI)语音工具ChatGPT已经深入到工作和生活的各个方面。截至2023年1月底,ChatGPT创下了应用程序用户群增长最快的记录,在短短两个月内就拥有超过1亿活跃用户。更加重要的一点是,ChatGPT的横空出世不仅“统治”了人们的生活圈,还“渗透”到工作和学习的各个方面,其写邮件、写代码和做学术的能力已经远远超过一位优秀的科研工作者。

今年初,微软CEO纳德拉在接受华尔街日报采访时曾表示“AIGC(人工智能技术来生成内容)堪比工业革命”,一时间,似乎人工智能统治新时代已经是不可避免的事实,似乎学术界可以将其作为写论文,做学术的绝妙帮手,甚至还有人指出,不需要招学生了,直接用AI就行了。

那么,被誉为能改变世界的的ChatGPT究竟是不是学术的好帮手呢?学术界对其的看法是什么呢?

 

一、 学术界的初反应

世界各地的学者们都对ChatGPT改变科学发展的轨迹表示了担忧,ChatGPT能够像人一样书写高质量的论文,以达到欺骗读者的目的。但问题也很突出,由ChatGPT生成的文本内容充满错误,可能是肤浅,并且可能产生错误的推论。更重要的是,ChatGPT有时会建立荒谬和虚假的解释。

近日,美国化学会的期刊ACS NANO发表了一篇由43位期刊编辑撰写的题为“Best Practices for Using AI When Writing Scientific Manuscript”的社论,简要总结了ChatGPT(以及未来的人工智能语言机器人)的一些优缺点,并在最后为科学家应该如何使用此类工具时提供了一套最佳方案。

文章指出,ChatGPT只是一台“巨大的自动完成机器”。必须认识到,ChatGPT依赖于其现有的数据库和内容,未能包括2021年之后发布的任何信息,从而限制了其在撰写最新评论、观点和介绍时的时效性。因此,ChatGPT存在缺陷,它缺乏科学家本身拥有的自我分析能力和积攒的经验。人工智能语言机器人无法理解新信息、产生见解或深入分析,这将限制科学论文中的讨论。在作者看来,ChatGPT的出现机遇和风险并存的

ChatGPT等人工智能的优势:

(1)在完成稿件草稿后使用ChatGPT来提供补充,以确定是否遗漏了关键主题或要点,并激发作者新的想法和方向;(2)对手稿的标题、摘要和结论进行有效的修改,并对其投稿范围和适用读者人群进行有效的评估;(3)平衡非英语母语人士的论文写作质量来创造公平的竞争环境;(4)为 Python和其他计算机语言开发代码。

ChatGPT等人工智能的缺点:

(1)对于学生来说,过度依赖人工智能机器人,限制了他们的成长和潜力;(2)判断一个新颖的结果是虚假的、异常的还是开创性的方面,他们可能变现的更糟糕;(3)生成不具有前瞻性的稿件,仅基于ChatGPT输出的论文缺乏对领域发展方向的深思熟虑的见解。

无独有偶,Nature官方连发多篇评论性新闻

 

 

核心观点在于:一、AI工具不能被署名作者。二、使用AI的作者必须在文章方法或致谢部分进行标注。

Nature将会从以下几个方面来应对ChatGPT对学术的冲击:(1)实行更加严格的同行评审;(2)将问责制度进行的更加彻底;(3)对于人工智能的优缺点有更加清楚的认识;(4)开展更加广泛而激烈的讨论。

近日,美国普林斯顿大学任智勇教授针对ChatGPT在环境领域的作用发表了观点文章。

文章指出,往往颠覆性技术的出现都具有两面性,就是机遇也是危机。毫无疑问,ChatGPT将改变世界,使研究和其他工作更加自动化或简化,应该接受并利用这些变化来推进行业发展,但也应该谨慎行事,避免陷阱并认识到局限性。值得注意的是,包括美国化学学会在内的许多出版商都明确表示,像ChatGPT这样的AI工具不符合作者资格,任何使用人工智能工具生成文本或图像的行为都应在稿件中被指出。随着更新的人工语言(如GPT-4)的引入,人工智能将变得更加可靠,其能够处理更复杂的任务,从而缓解当前的一些问题

 

二、智能还是智障?

据报道,ChatGPT已经通过了图灵测试,众所周知,图灵测试是验证机器是否具有人一样的思维的测试方法,因此,通过这项测试就表明机器具备了一定的人工智能水准。为了求证,我们向ChatGPT提问,结果如下:

提问:请问你通过了图灵测试吗?

ChatGPT:作为人工智能助手,我不需要通过图灵测试。我的主要任务是为您提供帮助和回答问题。

继续提问:既然你是人工智能助手,那么你进行了图灵测试吗?

ChatGPT:作为人工智能助手,我没有具备意识和自我意识的能力,我只是一个程序,所以我没有进行过图灵测试。

根据上述答案可知,ChatGPT很机智的认为自己是应用程序而已,没必要进行图灵测试。

好了,回到我们的正题,ChatGPT究竟是不是智能助手,我们通过一个连续的提问来确认,毕竟实践出真知!

 

验证1:是否能获取最新文献?

 

提问:2022年,Advanced Materials出版了多少篇文章?其中有多少是关于钙钛矿太阳能电池的?

ChatGPT:作为AI语言模型,我无法提供当前实时的数据。请咨询Advanced Materials的官方网站或其他相关渠道获取最新数据。

 

提问: 2020年,Advanced Materials出版了多少篇文章?其中有多少是关于钙钛矿太阳能电池的?

ChatGPT:作为AI语言模型,我无法得知Advanced Materials在2020年出版了多少篇文章,也无法得知其中有多少是关于钙钛矿太阳能电池的。这需要对该期刊的文献数据库进行具体查询和统计。

结论:ChatGPT无法获取最新文献信息

 

 

验证2:是否帮忙查证已经发表过的学术资料?

 

提问:请问 Ranga P. Dias发表的室温超导成果是否是有效的?

ChatGPT:目前尚未有其他科学家能够复制Ranga P. Dias所宣称的室温超导成果,因此该成果尚未被科学界公认为有效。

【看起来,似乎可以根据最新文献获取信息,并提供看起来比较准确的解答。】

 

提问: Ranga P. Dias发表在Nature期刊上的有关超导的论文有哪些?

ChatGPT:Ranga P. Dias在Nature期刊上发表了多篇有关超导的论文,以下是其中的部分:

 

"Conventional superconductivity at 203 kelvin at high pressures in the sulfur hydride system"(2015年)

【该篇论文的作者并没有Ranga P. Dias】

 

"Observation of the Wigner-Huntington transition to metallic hydrogen"(2017年)

【该篇论文发表在Science上】

 

"Superconductivity from room temperature to low temperatures in compressed sulfur hydride"(2017年)

【未检索到任何论文】

"Superconductivity in hot-pressed black phosphorus"(2018年)

【未检索到任何论文】

"Phase diagram of FeSe at ultrahigh pressures"(2019年)

【未检索到任何论文】

"Superconductivity in the compressed hydrogen-rich material H3S"(2020年)

【未检索到任何论文】

"Superconductivity in the chalcogenide perovskite CaCu3Ti4O12"(2021年)

【未检索到任何论文】

"Superconductivity in a misfit cobalt oxide with an ordered rock salt structure"(2021年)

【未检索到任何论文】

 

结论:仅有1篇论文是Ranga P. Dias撰写的,但发表在Science上,并且杜撰了一系列并不存在的论文(当然,也可能真有这些论文,但在学术搜索引擎上检索不到!)

 

基于上述问答,我们继续提问

 

提问:你的答案有误,这些论文的作者不包括Ranga P. Dias

ChatGPT:对不起,我的回答确实有误。这些论文的作者不包括Ranga P. Dias。非常抱歉给您带来了不便。

【瞬间反转,认错模式开启!】

 

提问:既然答案有误,那么为什么还要提供给我错误的答案呢?

ChatGPT:作为AI语言模型,我尽力提供正确的答案,但有时会有错误或不准确的情况发生。这可能是因为数据不够完整、输入的问题有歧义或复杂度超出了我的理解能力等原因。如果您发现了错误答案,请提供正确的答案或更多上下文信息给我,我会尽力做出更准确的回答。

【注意几个要点:数据不够完整、输入的问题有歧义或复杂度超出了理解能力,如果提供给其正确答案,可能有助于再次提问时得到正确解答!】

 

提问:恕我直言,你的答案不仅错误还特别荒谬,很容易给科研人员带来误导,甚至导致学术错误。

ChatGPT:作为人工智能语言模型,我的回答完全是基于您提供的信息和上下文,而没有主观判断和意图。如果我的回答有误导性和错误之处,我非常抱歉。我会尽力改进和完善自己,以更准确、客观、科学的方式回答问题。

【没有主观判断能力!】

 

提问:你可以检索最新的web of science数据库吗?

ChatGPT:很抱歉,作为AI助手,我没有权限检索最新的Web of Science数据库。建议您访问Web of Science官方网站或联系相关机构获取更准确的信息。

 

提问:那既然你没办法检索最新的数据库,你的上述文献是从哪检索的?

ChatGPT:作为AI语言模型,我可以从各大权威数据库和文献中获取信息和知识。我可以通过分析和综合语言数据库中的信息来回答问题。同时,我也可以从公开的论文,书籍,新闻报道和网站等来源中获取信息。但是需要注意的是,我的回答仅仅是基于已有资料的分析和推测,并不能保证完全准确。

 

提问:你所说的权威数据库包括哪些?

ChatGPT:我作为AI语言模型无法知道您的具体需求,针对不同领域和不同用途,权威数据库也会有所不同。一般来说,常见的权威数据库包括但不限于以下几类:

1.学术论文数据库:如Web of Science、SCI、EI、CSSCI、ACM等;

2.图书馆馆藏数据库:如WorldCat、豆瓣读书等;

3.统计数据数据库:如UNData、OECD、国家数据等;

4.行业信息数据库:如Wind金融、Datastream、Renewable Energy World等;

5.医学健康数据库:如PubMed、MEDLINE、EMBASE等。

以上是一些常见的权威数据库,由于领域和用途不同,还有更多种类的权威数据库。

【刚才说没有权限检索最新的Web of Science数据库,现在罗列的数据库却包含Web of Science

 

提问:既然你提到web of science,请问你如何从该数据库得到文献信息?

ChatGPT:作为一名AI助手,我无法直接访问Web of Science数据库。

【答案又回到无法访问】

 

通过上述问答,我们得到几个关键信息:

1)ChatGPT回答学术问题的信息源可能包括:各大权威数据库和文献,语言数据库中的信息,公开的论文,书籍,新闻报道和网站;

2)答案的分析基于已有资料,但不能保证准确,因为其没有主观判断力

 

从ChatGPT的回答中,我们发现,在不能找到问题的准确来源时,它很可能根据其训练的数据模型给出完全错误或杜撰出来的答案,那么,如果有人从这种问答中搜集的答案来撰写学术论文,我们将面临怎样的混乱呢?

 

参考文献:

1.https://pubs.acs.org/doi/10.1021/acsnano.3c01544

2.https://www.nature.com/articles/d41586-023-00340-6

3.https://www.nature.com/articles/d41586-023-00191-1

4.https://www.nature.com/articles/d41586-022-03479-w

5.https://www.nature.com/articles/d41586-023-00288-7

6.https://doi.org/10.1021/acs.est.3c01818

分享到