EconPapers    
Economics at your fingertips  
 

Explainable AI im Gesundheitswesen

Joachim Steinwendner ()
Additional contact information
Joachim Steinwendner: Fernfachhochschule Schweiz

Chapter Kapitel 36 in Künstliche Intelligenz im Gesundheitswesen, 2022, pp 755-767 from Springer

Abstract: Zusammenfassung Künstliche Intelligenz (KI) erlaubt das automatische Lösen von Aufgaben ohne menschliche Interaktion. Im Bereich der medizinischen Diagnostik sind besonders tiefe neuronale Netze (Deep Learning) sehr erfolgreich. Je geringer die Bench-to-Bedside-Distanz, desto klarer werden die Probleme, die mit diesen Methoden einhergehen. Eine große Herausforderung ist die Notwendigkeit der Erklärbarkeit einer Aussage eines KI-Modells, die vor allem auch bei Blackbox-Modell genannten neuronalen Netze besteht. Für den behandelnden Gesundheitsdienstleister wird diese Frage jedoch immer wichtiger, je mehr diese Algorithmen in die Klinik drängen. Mit der Frage der Interpretierbarkeit oder Erklärbarkeit in diesem Zusammenhang beschäftigt sich das Feld der Explainable Artificial Intelligence (XAI).

Date: 2022
References: Add references at CitEc
Citations:

There are no downloads for this item, see the EconPapers FAQ for hints about obtaining it.

Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.

Export reference: BibTeX RIS (EndNote, ProCite, RefMan) HTML/Text

Persistent link: https://EconPapers.repec.org/RePEc:spr:sprchp:978-3-658-33597-7_36

Ordering information: This item can be ordered from
http://www.springer.com/9783658335977

DOI: 10.1007/978-3-658-33597-7_36

Access Statistics for this chapter

More chapters in Springer Books from Springer
Bibliographic data for series maintained by Sonal Shukla () and Springer Nature Abstracting and Indexing ().

 
Page updated 2025-04-02
Handle: RePEc:spr:sprchp:978-3-658-33597-7_36