JOCHEN ROBES ÜBER BILDUNG, LERNEN UND TRENDS

CORE-GPT: Combining Open Access research and large language models for credible, trustworthy question answering

Es war nur eine Frage der Zeit, schreibt Stephen Downes. „We present CORE-GPT, a novel question-answering platform that combines GPT-based language models and more than 32 million full-text open access scientific articles from CORE … CORE-GPT which delivers evidence-based answers to questions, along with citations and links to the cited papers, greatly increasing the trustworthiness of the answers and reducing the risk of hallucinations.“

Also da, wo ChatGPT noch große Lücken aufweist, nämlich bei Quellen und Belegen, nutzt CORE-GPT eine definierte Datenbank mit wissenschaftlichen Texten. Die Antworten sind nicht perfekt, heißt es, vor allem, weil die Datenbank noch thematische Lücken aufweist. Aber das Beispiel zeigt eine naheliegende Entwicklung auf. Ich bin gespannt, wann Wikipedia-GPT folgt.

Hinweis: „CORE [https://core.ac.uk] is currently the one of the largest aggregators of OA scholarly knowledge, aggregating content from the global network of almost 11,000 institutional, pre-print and publisher repositories and, as of May 2023, hosts over 32 million full-text research papers.“
David Pride, Matteo Cancellieri und Petr Knoth, arXiv.org, 6. Juli 2023 (pdf)

Bildquelle: CORE