「PubMedで検索したけれど、関連論文の全体像がつかめない…」

文献検索を始めたばかりのとき、そう感じたことはないでしょうか。

検索式を作る前段階で、まずは「このテーマでどんな論文が出ているのか」「研究の方向性はどこに向かっているのか」をざっくり把握したい場面は意外と多いはずです。

そこで活用したいのが、AI文献検索ツール「Elicit(イリシット)」です。

今回は、Elicitの基本操作(4ステップ)から、3つの機能の使い分け、強みと限界、NotebookLMやChatGPTとの役割分担まで、PT・OTが今日から使える形で解説します。

情報の信頼性について
・本記事はBRAIN代表/理学療法士の針谷が執筆しています(執筆者情報は記事最下部)。
・本記事はElicitの公式仕様(2026年4月時点)および、Elicitと従来法を比較したシステマティックレビュー研究のデータを基に解説しています。

本記事の結論

  • ElicitはGoogleアカウントだけで無料利用できる、AI文献検索に特化したツール
  • 4ステップで関連文献の傾向をざっくり把握でき、文献検索の前後で「方向性確認」「抜け漏れ確認」に役立つ
  • Research Report・Systematic Review・Find Papersの3機能を目的別に使い分けると効率が一気に上がる
  • Elicitだけで文献検索を完結させない。PubMedによる厳密検索とNotebookLMによる精読と組み合わせるのが正解

以下、詳しく解説していきます。

Elicitとは?セラピストが使うべき3つの理由

Elicit(イリシット)は、臨床疑問に関連する論文を自動で検索・整理・要約してくれるAI文献検索ツールです。

1つの臨床疑問を入力するだけで、関連論文の要点・対象・方法・結果を表形式でまとめてくれます。

2026年に学術誌Clinical Spine Surgeryに掲載されたAIツール比較レビューでは、ElicitはScite・Trinka・SciSpace・Scholarcy・Litmapsと並ぶ代表的な文献作成支援AIとして評価されています(DiCiurcio et al, 2026)

セラピストの文献検索ワークフローで、Elicitが特に役立つのは以下の3つの場面です。

  • 文献検索の前段階:「このテーマで何が報告されているのか」をざっくり把握する
  • 文献検索の後段階:PubMed検索式に抜け漏れがないか確認する
  • 抄読会・症例検討の準備:有望な論文を素早く一覧化する

そして、Elicitの大きなメリットは「無料プランでも基本機能が使える」ことです。

Googleアカウントを持っていれば、登録だけですぐに使い始められます。

有料プラン(Elicit Pro)にすると、月あたりに抽出できるPDF数が大幅に増えます(2025年6月時点で20件→200件)。

※ 詳しくは別記事「【簡単】PubMedを使った文献検索のしかた【初心者向け】」で、PubMedによる厳密な検索手順を解説しています。Elicitとの併用で精度が一段上がります。

Elicitの基本操作|4ステップで関連文献の傾向を把握する

Elicitを使い始める手順は、以下の4ステップです。

STEP1:アカウントを作成(Googleアカウントでログイン)

Elicitの公式サイト(https://elicit.com/)にアクセスし、「Sign in with Google」ボタンを押します。

Googleアカウントの情報(メールアドレスとパスワード)を入力すれば、すぐに使い始められます。

Googleアカウントを持っていない方は、先にアカウントを作成してください(アカウント作成ページから無料で作れます)。

STEP2:臨床疑問を入力する(英語)

ログイン後の画面に、検索ボックスが表示されます。

Elicitは英語入力が前提なので、ChatGPTやDeepL翻訳・Google翻訳を使って臨床疑問を英訳しましょう。

例えば、以下のような質問文です。

In 60-year-old stroke patients with severe upper limb motor impairment, is task-oriented training more effective than conventional rehabilitation in improving upper limb function and activities of daily living?

PICO形式(対象・介入・比較・アウトカム)に整理して入力すると、Elicitが意図を読み取りやすくなります。

STEP3:機能を選択する(Research Report / Systematic Review / Find Papers)

Elicitには3つの主要機能があり、目的に応じて選びます。

初めて使う場合は「Research Report」がおすすめです。

1つの臨床疑問に対して、関連論文の要点をコンパクトにまとめてくれます。

3機能の違いについては、後の「Elicitの3機能の使い分け」セクションで詳しく解説します。

STEP4:レポートが作成される

臨床疑問を入力して数秒〜数分待つと、ElicitがAIで関連論文を抽出し、データをまとめたレポートを出力してくれます。

そのままブラウザで読んでも構いませんが、PDFとして保存しておくと、後で見返したり、NotebookLMに読み込ませて深く分析することができます。

この4ステップを踏むだけで、テーマ全体の研究動向を数分でつかめるのがElicit最大の強みです。

Elicitの3機能の使い分け

Elicitには「Research Report」「Systematic Review」「Find Papers」の3機能があり、目的によって最適な機能が異なります。

Research Report|1つの臨床疑問に対する関連論文要点

1つの臨床疑問に対して、関連する研究のポイントをまとめてくれる機能です。

例えば「この治療法って、効果あるの?」「1つの疑問をすばやく調べたい」というときに使います。

出力される情報は対象・方法・結果などが表にまとまって出てくる形式で、ノート的にまとめてくれるイメージです。

2025年にBMC Medical Research Methodologyに発表されたElicit活用研究では、Elicitは質問に対する自動要約を生成できるという独自性を持つAIツールとして位置づけられており、Research Report機能はその中核に該当します(Bernard et al, 2025)

Systematic Review|複数研究の傾向把握・比較表化

複数の研究を広く集めて、まとめて比較できるようにしてくれる機能です。

「研究をしっかり比べて、全体の傾向を知りたい」というときに使います。

出力される情報は成果の大きさ・研究の質・バイアスの有無などで、研究の比較表(レビュー下調べ用)として活用できます。

Find Papers|関連論文リストを素早く取得

論文のリストを素早く出してくれる機能です。

「とにかく関係ある論文を見つけたい・読みたい」というときに使います。

出力される情報は論文のタイトル・要約・リンクで、論文の検索一覧(Google Scholar的)として使えます。

※ Google ScholarとPubMedの違いについては、別記事「Google ScholarよりもPubMedを使うべき3つの理由」で詳しく解説しています。

Elicitの強みと限界|AIに頼り切ってはいけない理由

Elicit最大の強みは、「検索→抽出→要約→一覧化」という一連の工程を数分以内で済ませられるにあります。

文献検索の前後で「抜け漏れ」や「方向性」を素早く確認したいときに、極めて便利です。

ただし、Elicitには明確な限界があり、最近のシステマティックレビュー研究で具体的な数値が報告されています。

限界①:検索感度は従来法に及ばない

2025年にCochrane Evidence Synthesis and Methods誌に発表されたElicit Pro(有料版)の検証研究では、4件のエビデンス統合事例でElicitと従来検索を比較し、Elicitの感度は平均39.5%(25.5〜69.2%)にとどまり、従来法の94.5%(91〜97%)を大きく下回ったと報告されています(Lau & Golder, 2025)

つまり、Elicit単独では本来採用すべき論文の半数以上を取り逃がす可能性がある、ということです。

システマティックレビューや厳密な文献検索を行う場合、Elicitは「下調べ」「補助ツール」として位置づけ、最終的な検索はPubMedで行う必要があります。

限界②:定量的データ(介入効果の数値)の抽出には誤りが残る

2025年に同じCochrane Evidence Synthesis and Methods誌に発表された別の研究では、20件のRCTでElicitと人間によるデータ抽出を比較し、研究目的・対象特性・介入内容では概ね一致したものの、介入効果の数値抽出では人間の方が正確であったと報告されています(Bianchi et al, 2025)

p値・効果量・信頼区間など、論文の核心となる数値は必ず原文で確認することが必須です。

限界③:検索対象はSemantic Scholar由来でPubMedとは網羅性が異なる

Elicitの検索基盤はSemantic Scholarデータベースに由来しています。

そのため、PubMed掲載論文を100%カバーしているわけではありません。

また、PEDro scaleやROBツールによる厳密なバイアスリスク評価には対応していないため、評価は別途自分で行う必要があります。

2025年にResearch Synthesis Methods誌で発表された生成AI×SR研究の系統的レビューでは、19研究の解析から生成AIは検索段階で68〜96%(中央値91%)の論文を取り逃し、誤除外率は1〜83%(中央値28%)と報告されています(Clark et al, 2025)

つまり、AIツール全般に「論文の取り逃し」と「誤除外」のリスクがあるため、人間によるダブルチェックは必須です。

関連する内部記事として「有料の英語論文を無料で入手する4つの方法」も併せて参照すると、Elicitで見つけた論文を効率的に全文入手できます。

NotebookLM・ChatGPTとの使い分け|文献検索ワークフローの全体像

「Elicitだけで全部できるのでは?」と思いがちですが、ChatGPT・NotebookLMにはそれぞれ得意領域があります。

3つのツールは「使う場面が違う」ので、どれか1つに絞るのではなく、用途に応じて使い分けるのが正解です。

  • ChatGPT:文献検索の前段階で使う(臨床疑問のPICO定式化、検索式の作成、研究デザインの選定)
  • Elicit:文献検索の幅出しに使う(PICOから関連論文を広く拾う、Semantic Scholar由来の論文を一覧化)
  • NotebookLM:手元の文献を深く読み込む(PubMedで集めた論文の1次・2次スクリーニング、データ抽出、批判的吟味)

つまり、文献検索ワークフローの「前段階:ChatGPT」「広く拾う:Elicit」「深く読む:NotebookLM」と役割を分担すると、効率が一気に上がります。

2025年にBrazilian Dental Journalに発表されたAIツール比較研究でも、Elicit・Perplexity・Consensus・ChatGPT・Grammarlyのそれぞれが文献分析ワークフローの異なる段階で機能を発揮することが報告されています(Granjeiro et al, 2025)

NotebookLMの具体的な使い方については、別記事で詳しく解説しています:
NotebookLMで論文を読む|PT・OTのスクリーニング負担を5分の1にする活用ガイド

BRAINでのElicit活用事例|セカンドレビュアーとしての位置づけ

BRAIN(株式会社BRAINが運営する脳卒中専門リハビリ施設)でも、Elicitをセラピスト全員で活用しています。

具体的には、以下のような使い方をしています。

  • 新しい介入手法(例:BMI、TMS、TOT-S)を調べ始めるとき、まずElicitのResearch Reportで全体像を把握する
  • PubMedで検索式を組んだ後、Elicitに同じPICOで質問して検索の抜け漏れを確認する
  • 抄読会の論文選定で、Find Papers機能を使って候補論文を素早く一覧化する

特に重要な運用ルールは、Elicitを「セカンドレビュアー」として位置づけ、最終判断は必ず人間が行うという点です。

2025年にCochrane Evidence Synthesis and Methods誌に発表された研究では、3件のSR・30論文でElicitとChatGPTを「セカンドレビュアー」として人間と比較し、人口統計・研究デザインの抽出では高い一致率を示したものの、定量的アウトカムの抽出では誤りが残ったと報告されています(Helms Andersen et al, 2025)

この知見は、BRAINでの「AIは下調べ、最終判断はセラピスト」という運用方針の科学的裏付けになっています。

よくある質問(FAQ)

Q1:Elicitは完全無料で使えますか?

無料プランでも基本機能(Research Reportなど)は使えます。

有料プラン(Elicit Pro)にすると、月あたりに抽出できるPDF数が大幅に増えます(2025年6月時点で20件→200件)。

まずは無料プランで試してみて、業務に使えるか確認してから有料化を検討するのがおすすめです。

Q2:日本語で臨床疑問を入力してもいいですか?

原則として英語入力が前提です。

日本語のままでも検索できる場合がありますが、英語論文(特にPubMed掲載論文)は英語クエリの方が圧倒的に精度が高くなります。

ChatGPTやDeepL翻訳を使って臨床疑問を英訳してから入力しましょう。

Q3:ElicitとPubMedはどちらを先に使うべきですか?

用途によって順番が変わります。

「テーマの全体像をざっくり把握したい」場合は、Elicit→PubMedの順がおすすめです。

「検索式を厳密に組んで網羅的に集めたい」場合は、PubMed→Elicit(抜け漏れ確認)の順が有効です。

システマティックレビューや臨床ガイドライン作成では、Elicit単独では感度が不足するため、必ずPubMedを併用してください。

Q4:Elicitが提示した数値(効果量・p値)はそのまま使っていいですか?

必ず原文で確認してください。

2025年のRCTデータ抽出比較研究では、Elicitの介入効果の数値抽出には人間より誤りが多いことが報告されています(PMID 41019842)。

Elicitの出力は「下調べ」「たたき台」と捉え、論文の核心となる数値は原文を見て確認するのが大原則です。

Q5:施設のセキュリティポリシーで使えるか不安です

所属施設の情報システム部門・コンプライアンス担当に必ず事前確認してください。

Elicitに入力するのは「臨床疑問」(公開済みの研究テーマ)であり、患者個人情報を含めなければ問題ない施設が多いですが、施設ごとにポリシーが異なるため確認は必須です。

カルテ情報・患者氏名・生年月日などの個人情報は、絶対に入力しないでください。

本記事のまとめ

  • ElicitはGoogleアカウントだけで無料利用できる、AI文献検索に特化したツール
  • 4ステップ(アカウント作成→臨床疑問入力→機能選択→レポート作成)で関連文献の傾向を数分で把握できる
  • Research Report・Systematic Review・Find Papersの3機能を目的別に使い分けることで、文献検索の前後で「方向性確認」「抜け漏れ確認」が一気に効率化できる
  • Elict単独では感度39.5%・誤除外28%という限界があるため、PubMedによる厳密検索とNotebookLMによる精読と組み合わせ、最終判断は人間が行うのが大原則

本記事の内容が、文献検索の方向性確認・抜け漏れ確認に悩んでいるセラピストの役に立てましたら幸いです。

参考文献

Bernard N, Sagawa Y, Bier N. Using artificial intelligence for systematic review: the example of Elicit. BMC Med Res Methodol. 2025. PMID: 40102714

Lau O, Golder S. Comparison of Elicit AI and traditional literature searching in evidence syntheses using four case studies. Cochrane Evid Synth Methods. 2025. PMID: 41035533

Bianchi J, Hirt J, Vogt M, et al. Data extractions using a large language model (Elicit) and human reviewers in randomized controlled trials: a systematic comparison. Cochrane Evid Synth Methods. 2025. PMID: 41019842

Helms Andersen T, Marcussen TM, Termannsen AD, et al. Using artificial intelligence tools as second reviewers for data extraction in systematic reviews: a performance comparison of two AI tools against human reviewers. Cochrane Evid Synth Methods. 2025. PMID: 40661122

DiCiurcio WT, Nanavati R, Miller M, et al. Artificial intelligence: the cutting-edge research companion. Clin Spine Surg. 2026. PMID: 41886484

Granjeiro JM, Cury AADB, Cury JA. The future of scientific writing: AI tools, benefits, and ethical implications. Braz Dent J. 2025. PMID: 40197923

Gainey CS, Shroff H, Fix OK, et al. Artificial intelligence tools for GI research: a practical guide. Clin Gastroenterol Hepatol. 2026. PMID: 41935592

Sanghera R, Thirunavukarasu AJ, El Khoury M, et al. High-performance automated abstract screening with large language model ensembles. J Am Med Inform Assoc. 2025. PMID: 40119675

Dai ZY, Wang FQ, Shen C, et al. Accuracy of large language models for literature screening in thoracic surgery: diagnostic study. J Med Internet Res. 2025. PMID: 40068152

Nykvist B, Macura B, Xylia M, et al. Testing the utility of GPT for title and abstract screening in environmental systematic evidence synthesis. Environ Evid. 2025. PMID: 40270055

Matsui K, Utsumi T, Aoki Y, et al. Human-comparable sensitivity of large language models in identifying eligible studies through title and abstract screening: 3-layer strategy using GPT-3.5 and GPT-4 for systematic reviews. J Med Internet Res. 2024. PMID: 39151163

Hempel S, Sysawang K, Holmer HK, et al. Using large language models to address contextual questions in systematic reviews. Cochrane Evid Synth Methods. 2026. PMID: 41767019

Clark J, Barton B, Albarqouni L, et al. Generative artificial intelligence use in evidence synthesis: a systematic review. Res Synth Methods. 2025. PMID: 41626912

Rashid M, Yi CS, Sathapanasiri T, et al. Role of generative artificial intelligence in assisting systematic review process in health research: a systematic review. Value Health. 2025. PMID: 40848037

BRAINアカデミー

エビデンスに基づく脳卒中リハビリテーションを体系的・網羅的に学ぶ、3ヶ月間のオンライン学習プログラムです。①動画教材 ②課題 ③フィードバックを通じて、EBMを身に付けましょう!
詳細はこちら

書籍|文献検索の超基本

「先輩に聞けばいい」から卒業しませんか?

本書は、PT・OT・STが最短で文献検索を身につけるための一冊です。172ページ+40本の動画で、PubMed検索からAI活用まで実践的に学べます。ChatGPT、Elicit、Semantic ScholarなどのAIツールを”なんとなく使う”のではなく、正しく臨床に活かす方法を体系的に解説。文献検索は、早く身につけた人が圧倒的に伸びます。エビデンスを自分で調べられるセラピストになりませんか?

詳細はこちら