人工智能工具大举“入侵”科学搜索引擎

来源: 中国科学报2023-08-04 17:07:45
  

互联网搜索引擎中出现的人工智能(AI)聊天机器人,如谷歌的Bard、微软的Bing等,似乎将越来越多地改变科学搜索。

据《自然》报道,8月1日,荷兰出版业巨头爱思唯尔为其Scopus数据库的一些用户发布了一个基于ChatGPT的AI界面,而英国数字科学公司宣布为其Dimensions数据库的AI大型语言模型(LLM)进行封闭试验。同时,美国科睿唯安公司表示,他们也试图将LLM纳入其Web of Science数据库。

用于科学搜索的LLM并不是什么新鲜事,Elicit、Scite和Consensus等初创公司已经有了这样的AI系统,即依靠免费的科学数据库,或通过与出版商合作来访问付费的研究论文,帮助总结一个领域的发现或识别顶尖研究。而现在,拥有大型科学数据库的公司也加入其中。


【资料图】

作为试点推出的爱思唯尔聊天机器人名为Scopus AI。负责该工具开发的爱思唯尔的Maxim Khan说,作为一个轻便、有趣的工具, Scopus AI旨在帮助研究人员快速获得他们不熟悉的研究主题的摘要。在回答一个自然语言问题时,机器人使用LLM GPT-3.5版本获得一段关于研究主题的流畅总结、引用的参考文献以及需要进一步探索的问题。

对用于搜索尤其是科学搜索的LLM的一个担忧是,它们是不可靠的。LLM并不理解其产生的文本,只是通过输出文本上看似合理的词语来工作。其输出可能包含事实错误和偏见,而且正如学者们很快发现的那样,LLM可能会编造不存在的参考文献。

因此,Scopus AI受到了限制,它只能通过参考5至10篇研究摘要来生成答案。Khan 解释说,AI本身并不会寻找这些摘要,相反,在用户输入查询后,一个传统搜索引擎会将它们作为与问题相关的内容加以提供。

爱思唯尔限制Scopus AI仅搜索自2018年以来发表的文章,以获取最近的论文,并指示其在回复中适当引用返回的摘要,以避免不安全或恶意的查询,并指示其说明收到的摘要中是否没有相关信息。这不能避免错误,但可以最大限度地减少错误。

那么,用户是否有可能将机器人生成的段落复制粘贴到自己的论文中,从而对内容进行抄袭?Khan表示,这是有可能的。不过,爱思唯尔通过“指导意见”来解决这一问题,要求研究人员负责任地使用摘要。资助者和出版商也发布了类似的指导意见,要求透明地披露LLM是否用于撰写论文或进行同行评审,或者在某些情况下声明不应该使用LLM。

目前,Scopus AI仅向约1.5万名用户推出,该公司表示,预计将于2024年初全面开放该工具。

同样在8月1日,数字科学公司宣布将为其庞大的Dimensions数据库引入AI助手,目前同样只针对选定的测试者。在用户输入问题后,搜索引擎首先检索相关文章,然后开放的AI GPT模型围绕已检索到的排名靠前的摘要生成摘要段落。

Dimensions还使用LLM提供了相关论文的更多细节,包括研究结果的简短总结。

数字科学公司首席产品官Christian Herzog说,公司希望在今年年底前在更广泛的范围发布该工具,但目前正在与科学家、资助者和其他使用Dimensions的人合作,测试LLM在哪些方面可能有用——这还有待观察。他说:“这关乎逐渐适应一项新技术并建立信任。”

同时,科睿唯安也表示,该公司正“致力于在Web of Science中添加LLM支持的搜索”,但没有透露相关工具发布的时间。

关键词:

责任编辑:sdnew003

相关新闻

版权与免责声明:

1 本网注明“来源:×××”(非商业周刊网)的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。

2 在本网的新闻页面或BBS上进行跟帖或发表言论者,文责自负。

3 相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担。

4 如涉及作品内容、版权等其它问题,请在30日内同本网联系。