| Literature DB >> 35552486 |
Wilhelm Haverkamp1,2, Nils Strodthoff3, Carsten Israel4.
Abstract
Even though electrocardiography is a diagnostic procedure that is now more than 100 years old, medicine cannot do without it. On the contrary, interest in the procedure and its clinical significance is even increasing again. Reports on the evaluation of electrocardiograms (ECGs) with the aid of artificial intelligence (AI) are also responsible for this. Using machine learning and in particular deep learning, both AI subfields, completely new perspectives of ECG evaluation and interpretation arise. The weaknesses inherent in classical computer-assisted ECG evaluation appear to be overcome. This two-part overview deals with AI-based ECG analysis. Part 1 introduces basic aspects of the procedure. Part 2, which is published separately, is devoted to the current state of research and discusses the available studies. In addition, possible scenarios of future application of AI in ECG analysis are discussed.Entities:
Keywords: Artificial neuronal networks; Deep learning; Digital health; Electrocardiography; Machine learning
Mesh:
Year: 2022 PMID: 35552486 PMCID: PMC9177483 DOI: 10.1007/s00399-022-00854-y
Source DB: PubMed Journal: Herzschrittmacherther Elektrophysiol ISSN: 0938-7412
| Datensatz | Lokalisation | Zeitraum | Patienten ( |
|---|---|---|---|
Telehealth Network of Minas Gerais, Brazil (Ribeiro et al. [ | Brazil | 2010–2018 | 1.676.384 (2.322.513 EKGs) |
Mayo Clinic, Massachusetts (Kashou et al. [ | USA | 1993–2017 | 720.978 (2.499.522 EKGs) |
Geisinger (Raghunath et al. [ | USA | 1984–2019 | 253.397 (1.169.662 EKGs) |
Huazhong University, Wuhan (Zhu et al. [ | China | 2012–2019 | 71.520 (180.112 EKGs) |
University of California, San Francisco (Tison et al. [ | USA | 2010–2017 | 36.186 EKGs |
| Datenbankname (Literatur) | Patienten/EKGs ( | Ableitungen ( | Länge (s) |
|---|---|---|---|
MIT-BIH Noise Stress Test (Moody et al. [ | 15/15 | 1 | 22.500 |
MIT-BIH Arrhythmia (Moody und Mark [ | 47/48 | 2 | 1800 |
European ST-T Database (Taddei et al. [ | 79/90 | 2 | 7200 |
ICBEB Challenge 2018 (Liu et al. [ | 6877/6877 | 12 | 30 |
AF Classification Challenge 2017 (Clifford et al. [ | 8528/8528 | 1 | 32,5 |
PTB-XL (Wagner et al. [ | 18.885/21.837 | 12 | 10 |
(„supervised learning“) | Die Trainingsdatensätze liegen in der Form von Paaren aus Eingabedaten und zugehörigen Annotationen bzw. Etiketten („labels“) vor. Das System lernt anhand der eingegebenen Daten neue Eingaben – entsprechend des antrainierten Lösungsweges (einem Algorithmus) – unterschiedlichen Klassen zuzuordnen (Klassifizierung) oder kontinuierliche Zielwerte vorherzusagen (Regression) |
(„unsupervised learning“) | Dem Algorithmus werden ungelabelte Trainingsdaten präsentiert. Gängige Anwendungsfälle sind das Lernen von Datenrepräsentationen und/oder das Auffinden von Strukturen in den Eingangsdaten (z. B. Clustering) |
(„reinforcement learning“) | Der Computer führt Aktionen durch (z. B. Zuordnungen von Objekten zu Klassen). Je nachdem, wie letztere ausgehen, gibt es Belohnungen oder Strafen. Der Schwerpunkt dieses Verfahrens liegt auf der Entwicklung von intelligenten Lösungen für komplexe Steuerungsprobleme |


(„decision trees“) | Basierend auf Ausprägungen werden Modelle mit möglichen Entscheidungen konstruiert (häufiger Ansatz bei überwachtem Lernen); es entstehen Baumstrukturen mit binären Verzweigungen |
(„Bayesian learning“) | Der Satz von Bayes berechnet bedingte Wahrscheinlichkeiten. Die Verfahren werden eingesetzt, um Wahrscheinlichkeitsprobleme zu lösen (überwachtes Lernen). Sie sind auch bei kleiner Datengrundlage anwendbar. Beispiele: naiver Bayes-Klassifikator; Gaußscher naiver Bayes-Klassifikator; multinominaler naiver Bayes-Klassifikator; Bayessches Netz |
| Es handelt sich um Modelle für Entscheidungsprobleme (überwachtes Lernen), bei denen die Trainingsdaten aus Beispielen bestehen, die zunächst miteinander und später mit neuen Daten verglichen werden. Beispiel: K‑Nearest Neighbors | |
| Eine Support Vector Machine unterteilt eine Menge von Objekten so in Klassen, dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt (häufiger Ansatz bei überwachtem Lernen). Das Verfahren kann als Klassifikator und Regressor verwendet werden | |
(„clustering“) | Daten werden in Abhängigkeit von Ähnlichkeiten gruppiert und/oder nach Klassen organisiert (häufiger Ansatz bei unüberwachtem Lernen). Beispiele: K‑Means; hierarchisches Clustering |
(AUC = „area under the curve“, Fläche unterhalb der Kurve) | Der AUC-Wert gibt die Fläche unterhalb der Grenzwertoptimierungskurve, der sog. ROC-Kurve (Beispiel siehe unten) wieder. Er spiegelt die Fähigkeit eines Tests zur Diskriminierung zweier Personen bzw. Populationen. Das heißt, es wird gemessen, ob kranke und gesunde Personen anhand der Risikobewertung unterschieden werden können. Die Sensitivität und Spezifität unterliegen typischerweise einem Trade-off, d. h. eine erhöhte Sensitivität wird mit einer niedrigeren Spezifität erkauft. Die Abwägung kann mittels des Schwellenwerts getroffen werden. Das Durchlaufen aller möglichen Schwellenwerte ergibt die ROC-Kurve – der AUC-Wert ist demnach eine schwellenwertfreie Metrik und daher eine beliebte Wahl im maschinellen Lernen |
| Anteil der Test-positiven Personen unter allen Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. Eine hohe Sensitivität wird angestrebt, wenn eine Erkrankung mit hoher Sicherheit ausgeschlossen werden soll | |
| Anteil der Test-negativen Personen unter allen Nichterkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test Nichterkrankte korrekt zu identifizieren. Eine hohe Spezifität wird angestrebt, wenn eine Erkrankung mit großer Sicherheit bestätigt werden soll |


(„feed forward neuronal network“) | Neuronales Netzwerk, das keine Rückkopplungen aufweist, d. h. die Signale laufen von der Eingangsschicht immer nur in Richtung der Ausgangsschicht. Dazwischen befindet sich mindestens eine verborgene Schicht |
(„recurrent neuronal network“) | Bei rückgekoppelten (rekurrenten) Netzen gibt es Neuronen, deren Ausgänge mit Neuronen derselben oder einer vorangegangenen Schicht verbunden sind. Solche Rückkopplungen ermöglichen einem neuronalen Netz ein dynamisches Verhalten und statten es gewissermaßen mit einem Gedächtnis aus |
(„convolutional neuronal network“) | In mehreren Schichten, die mit Filtern lupenartig analysiert werden, findet eine hierarchisch geordnete Mustererkennungen statt. Der Begriff Konvolution (Faltung) beschreibt eine mathematische Prozedur mit fundamentaler Bedeutung bei der Signalverarbeitung: Zwei Signale werden mittels Faltung zu einem dritten kombiniert. Einsatz vor allem in der Bildanalyse und der Zeitreihenanalyse (z. B. EKG-Analyse) |