Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Einfach buchen

Buchen Sie jetzt RÖKO DIGITAL des 105. Deutscher Röntgenkongress und 10. Gemeinsamer Kongress von DRG und ÖRG und verpassen Sie keines unserer lehrreichen und informativen Webinare zu verschiedenen Themen der Radiologie.

  • Wissenschaft & Fortbildung
  • CME-Punkte
  • Themenvielfalt
  • Dialog & Interaktion

Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Ohne Buchung.

Sie können an dieser Veranstaltung auch ohne Buchung von RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG gebucht haben oder noch nachbuchen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an dieser Veranstaltungen auch ohne Buchung von RÖKO DITITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG gebucht haben oder noch nachbuchen.

Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Kongressteilnehmer.

Als Teilnehmer am RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG loggen Sie sich bitte ein, um an dieser Industrie­veranstaltung teilzunehmen.

Ohne Buchung.

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen. Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Das ist eine Meldung

Stet clita kasd gubergren, no sea takimata sanctus est. Ut labore et dolore aliquyam erat, sed diam voluptua.

RK/WISS 308

AI-Tools für wissenschaftliches Kommunizieren und Publizieren: ChatGPT & Co.

AI-Tools für wissenschaftliches Kommunizieren und Publizieren: ChatGPT & Co.
Freitag, 10. Mai 2024 · 15:30 bis 17:00 Uhr
10
Mai

Freitag, 10. Mai 2024

15:30 bis 17:00 Uhr · Raum: Forum 1.3  in Kalender übernehmen:   iCal  ·  Google

Veranstaltungsdetails

Veranstalter
Deutsche Röntgengesellschaft e.V.
Art
Refresher-Kurs mit WISS
Thema
IT/ Bildverarbeitung / Software
Zielgruppe
Andere, Ärzte in Weiterbildung (AiW), Fachärzte, Ingenieure / Naturwiss., Studenten

Zertifizierungen

Der RÖKO WIESBADEN wird im Rahmen einer Kongresszertifizierung durch die LÄK Hessen bewertet. Bitte beachten Sie die Hinweise unter A bis Z.

Informationen

Das ist eine Veranstaltung der AG Methodik und Forschung.

Anwesenheiten

Moderation
Nadine Bayerl (Erlangen)
Matthias Dietzel (Erlangen)

Ablauf

15:30 - 15:45

Vortrag (Fortbildung)

Neue Wege in der Wissenschaftskommunikation

Matthias Dietzel (Erlangen)

15:45 - 16:00

Vortrag (Fortbildung)

Chatbots, ChatGPT & Co.

Thomas Dratsch

16:00 - 16:15

Vortrag (Fortbildung)

Seriösität in der Wissenschaft: Papermills & Co.

Pascal Baltzer (Wien)

16:15 - 16:20

Vortrag (Wissenschaft)

Das Potenzial von GPT-4 bei der Fehlererkennung in radiologischen Befundberichten: Auswirkungen auf Befundgenauigkeit und radiologische Ausbildung

Roman Johannes Gertz (Köln)

weitere Autoren

Alexander Bunck (Köln) / Robert Hahnfeldt (Köln) / Simon Lennartz (Köln) / Thomas Dratsch (Köln) / Lenhard Pennig (Köln) / Andra Iza Iuga (Köln) / Jonathan Kottlors (Köln)

Zielsetzung

Ziel der Studie war die Evaluation der Leistung von GPT-4 zur Identifikation von Unstimmigkeiten zwischen dem Befund und der Beurteilung von radiologischen Befundberichten.

Material und Methoden

Retrospektiv wurden 100 originale Befundberichte von Röntgen- (n=39) und Schnittbildgebungsuntersuchungen (n=61) eingeschlossen. Diese wurden mittels einer Daten-Randomizierungssoftware (https://www.randomizer.org) zu gleichen Anteilen (50:50) in zwei Gruppen, korrekt und fehlerhaft, unterteilt. In der fehlerhaften Gruppe wurden von einem Assistenzarzt der Radiologie absichtlich 69 Abweichungen zwischen dem Befund und der Beurteilung erstellt. GPT-4 bewertete die Berichte auf Inkonsistenzen und wurde in seiner Genauigkeit mit einem Radiologen mit 17 Jahren Erfahrung verglichen. Zudem wurde eine nach Modalität getrennte Auswertung durchgeführt.

Ergebnisse

GPT-4 erkannte insgesamt weniger Inkonsistenzen als der erfahrene Radiologe mit Erkennungsraten von 87% bzw. 94% (p=0.145). Bei der Unterteilung nach Modalität war die Leistung des large language models für Röntgenbilder vergleichbar mit dem Referenzstandard (Genauigkeit für beide 88%; p=1.0). Für schnittbildgebene Verfahren hingegen war sie diesem unterlegen (86% vs. 98%, p=0.049). GPT-4 korrigierte 82% der Befundberichte vollständig, was einer Reduktion der Korrekturzeit des erfahrenen Radiologen von 86% entsprach.

Schlussfolgerungen

GPT-4 ermöglicht die Detektion von Unstimmigkeiten in radiologischen Befundberichten mit ausreichender Genauigkeit. Die Integration von GPT-4 in existierende Krankenhaus-Informationssysteme könnte somit nicht nur die Genauigkeit radiologischer Befunde erhöhen, zu einer Arbeitszeiteinsparung und Kostensenkung führen und damit die Patientenversorgung verbessern, sondern auch ein fortschrittliches Ausbildungswerkzeug für radiologische Assistenzärzte darstellen.

Teilnahme Young Investigator Award

16:20 - 16:25

Vortrag (Wissenschaft)

GPT-4-basierte Generierung von Differentialdiagnosen auf der Grundlage von Bildbefunden

Simon Lennartz (Köln)

weitere Autoren

Grischa Bratke (Köln) / Thorsten Persigehl (Köln) / Christoph Kabbasch (Köln) / Philip Rauen (Köln) / Marc Schlamann (Köln) / Jonathan Kottlors (Köln)

Zielsetzung

Evaluierung von Generative Pretrained Transformer 4 (GPT-4) zur Generierung von Differentialdiagnosen auf der Grundlage von Bildbefunden.

Material und Methoden

Jeweils drei Spezialisten für Neuroradiologie, Thoraxradiologie, abdominelle Radiologie und muskuloskelettale Radiologie legten im Konsens die fünf relevantesten Differentialdiagnosen für insgesamt vier Bildbefunde pro Spezialgebiet fest. Textbeschreibungen der Bildbefunde (z.B. „Singuläre, ringförmig kontrastmittelanreichernde zerebrale Läsion“) wurden in GPT-4 eingegeben, mit der Aufforderung, die fünf wichtigsten Differentialdiagnosen zu nennen. Die Ergebnisse aus GPT-4 wurden durch die Experten in binärer Form als akzeptabel oder inkorrekt eingestuft. Die Anzahl der zwischen GPT und Experten übereinstimmenden Differentialdiagnosen (Konkordanz) sowie die Anzahl der als akzeptabel erachteten, GPT-basierten Diagnosen wurde dokumentiert. Unterschiede in Konkordanz und Akzeptanz zwischen den radiologischen Fachbereichen wurden mit dem χ2-Test mit Bonferroni-Korrektur für multiple Vergleiche ermittelt.

Ergebnisse

Insgesamt wurden 80 Differentialdiagnosen sowohl von der Expertengruppe als auch von GPT-4 erstellt. Die Konkordanz zwischen den von der Expertengruppe und GPT-4 vorgeschlagenen Differentialdiagnosen betrug insgesamt 68,8 % (55/80). 93,8 % (75/80) der von GPT-4 vorgeschlagenen Diagnosen wurden als akzeptabel betrachtet. Signifikante Unterschiede zwischen den radiologischen Spezialgebieten in Bezug auf Konkordanz (P = .225) oder Akzeptanz (P = .503) bestanden nicht.

Schlussfolgerungen

Die durch GPT-4 erstellten Differentialdiagnosen zu Bildbefunden erreichten eine moderate Konkordanz und hohe Akzeptanz, was die Fähigkeit des Modells zur Integration komplexer Informationen zeigt. Ein möglicher Vorteil des untersuchten Ansatzes liegt in der Zeiteffizienz der Informationsgewinnung insbesondere in der Weiterbildungssituation, limitierend erscheint die aktuell noch fehlende Transparenz in Hinblick auf Referenzliteratur in den Trainingsdatensätzen des Modells.
16:25 - 16:30

Vortrag (Wissenschaft)

Large language models (LLMs) in radiology medical student exams: performance and consequences

Philipp Reschke (Frankfurt am Main)

weitere Autoren

Jennifer Gotta (Frankfurt am Main) / Vitali Koch (Frankfurt am Main) / Leon Grünewald (Frankfurt am Main) / Scherwin Mahmoudi (Frankfurt am Main) / Thomas Vogl (Frankfurt am Main)

Zielsetzung

The evolving field of medical education is being shaped by technological advancements, including the integration of Large Language Models (LLMs) like ChatGPT. These models could be invaluable resources for medical students, simplifying complex concepts and enhancing interactive learning by providing personalized support. LLMs have shown impressive performance in professional examinations, making them particularly relevant in the medical field. This study aims to assess LLMs' performance in radiology medical student examinations, shedding light on their current capabilities and implications.

Material und Methoden

This study was conducted using 151 multiple-choice questions obtained from the University Hospital`s radiology institute database, which were used for medical student radiology exams. The questions were categorized by type and topic and were then processed using OpenAI's GPT-3.5 and GPT- 4 via their API, or manually put into Perplexity AI with GPT-3.5 and Bing. LLMs performance was evaluated overall, by question type and by topic.

Ergebnisse

GPT-3.5 achieved a 67.6% overall accuracy on all 151 questions, while GPT-4 outperformed it significantly with an 88.1% overall accuracy (p<0.001). There were no significant differences between Perplexity AI (GPT-3.5+Bing) and GPT-3.5 (p=0.44). All models would have successfully passed the radiology exam for medical students at our university.

Schlussfolgerungen

In conclusion, our study highlights the potential of LLMs as accessible knowledge resources for medical students. GPT-4 performed well on lower-order as well as higher-order questions, making ChatGPT-4 a potentially very useful tool for reviewing radiology exam questions. Radiologists should be aware of ChatGPT's limitations, including its tendency to confidently provide incorrect responses.
16:30 - 17:00

Diskussion

Diskussion

Runlog

Öffnen