新しいツールが普及するにつれ、科学論文上の AI の「指紋」は重要な研究の信頼を損なう可能性がある

研究者の中には科学論文で人工知能 (AI) を使いすぎている人もいますか?専門家らは、生成AI(GenAI)の「指紋」がますます多くの研究で見つかる可能性があると述べている。

まだ査読されていない最近のプレプリント論文では、おそらく少なくとも 60,000 件の論文が、AI を使用して文体を分析することによって何らかの方法で「洗練」されたと推定されています。

「LLM(大規模言語モデル)の作業がどれだけ含まれているかを私たちが知っていたというわけではありませんが、確かに、これらは一晩中非常に多忙なシフトです」とユニバーシティ・カレッジ・ロンドンの図書館員アンドリュー・グレイ氏はユーロニュース・ネクストに語った。ツールが単なるコピー編集に使用された場合でも、さまざまな種類の「指紋」が発生することが予想されます。

特定の変化は人々の書き方の変化に関連している可能性がありますが、いくつかの単語の進化は「驚異的」です

「私たちが観察しているところによると、その数字は着実に増加しているように見えます」とグレイ氏は語った。

すでに波紋を呼び始めている。著者らはMidjourneyツールの功績を公然と認めた、AIが生成した画像を使った査読済みの研究が雑誌「Frontiers in Cell Development and Biology」に掲載され、2月にソーシャルメディアで急速に広まった。

その後、同誌は研究を撤回し、「科学界に」謝罪した

「ChatGPT や同様のツールの使用について明確に言及しているものはほとんどありません」とグレイ氏は分析した論文について語った。

新しいツールは信頼性の問題を引き起こす

専門家によると、著者が執筆言語のネイティブスピーカーではない場合など、GenAIは編集プロセスのスピードアップに役立つ可能性があるが、これらのツールの使用に関する透明性の欠如が懸念されているという。

トゥールーズ大学のコンピュータサイエンス教授ギョーム・カバナック氏はユーロニュース・ネクストに対し、「例えば実験が適切に行われていないことや、あらゆるレベルで不正行為が行われているのではないかという懸念がある」と語った。

ネイチャーから「詐欺の探偵」と呼ばれるカバナックは、偽の科学と疑わしい論文を追跡しています。

同氏はさらに、「社会は科学に信用を与えているが、この信用はいつでも取り消される可能性がある」と付け加え、AIツールの悪用は科学研究に対する国民の信頼を損なう可能性があると説明した。

カバナックは同僚と協力して、問題のある紙スクリーナー「拷問されたフレーズ」を検出するため。これは、たとえば、盗作の検出を回避するために言い換えツールが使用されたときに見つかるものです。

しかし、GenAI ツールが公開されて以来、カバナック氏は、「再生成」という用語、AI チャットボットの回答の最後に表示されるボタン、または「AI 言語モデルとして」で始まる文などの論文に新しいフィンガープリントが出現する傾向に気づき始めました。 。

これらは、AI ツールから取得されたテキストの明らかな兆候です。

「今日生産されていると思われるもののごく一部しか検出できませんが、概念実証を確立するには十分です」とカバナック氏は言う。

問題の 1 つは、テクノロジーが進歩するにつれて、AI によって生成されたコンテンツを特定することがますます困難になる可能性があることです。

「これらのツールを使用すると、物事を微妙に変更したり、二次的な意味でまったく予想していなかった方法で物事を変更したりすることが非常に簡単です。したがって、ツールを通過した後に慎重にチェックしていないと、エラーが忍び寄る危険性が実際にあります」とグレイ氏は語った。

将来的には発見されにくくなる

査読のプロセスは、あからさまな間違いがジャーナルに掲載されるのを防ぐことを目的としているが、カバナック氏がソーシャルメディアで指摘しているように、実際にそうなることはあまりない。

一部の出版社は、投稿された出版物での AI の使用に関するガイドラインをリリースしています。

ネイチャー誌は2023年に次のように述べた。AI ツールは著作者として認められませんでしたまた、AI ツールを使用する研究者はその使用法を文書化する必要があります。

グレイ氏は、こうした論文が将来的には発見されにくくなるのではないかと懸念している。

同氏は、「ツールが改良されるにつれて、本当に明白な(事例は)減少すると予想される」と述べ、出版社はガイドラインと予想される開示について「真剣に検討」する必要があると付け加えた。

グレイ氏とカバナック氏は両氏とも著者に注意を呼び掛け、カバナック氏は疑わしい論文にフラグを立て、撤回された論文がないか定期的にチェックするよう呼び掛けた。

「例えば、撤回された研究や科学論文を引用することは許されない」とカバナック氏は述べた。

「自分の仕事が何に基づいているかを常に再確認する必要があります。」

同氏はまた、場合によっては不十分であることが判明した査読プロセスの健全性に疑問を呈した。

「評価を下手に行ったり、急ぎすぎたり、再読せずにChatGPTを利用したりすることは、科学にとって良くないことだ」と同氏は述べた。