Und die Gründe für das Scheitern Leider war keine der Entwicklungen nützlich. Besprechen Sie
Wissenschaftler aus allen Ländern haben die Entwicklung künstlicher Intelligenz aufgegriffen, die Ärzten hilft, COVID-19 schneller zu diagnostizieren. Viele der erstellten Tools waren jedoch sogar schädlich. Dies bestätigen Forscher des Turing-Instituts (Großbritannien).
Leider erwiesen sich die Entwicklungen als ungeeignet für den Einsatz in der medizinischen Praxis. Nur zwei von 232 Algorithmen zeigten mehr oder weniger korrekte Ergebnisse. Der Rest der automatischen Diagnosemethoden machte Fehler.
Im Moment kann KI, wie Experten feststellen, noch eine wichtige Diagnose übersehen oder das Risiko für einen Patienten falsch einschätzen. Zwar werden solche Entwicklungen in China noch genutzt oder zum Verkauf angeboten.
Die meisten Fehler und Probleme sind auf die schlechte Qualität der bei der Entwicklung verwendeten Daten zurückzuführen. Ärzte sagten wenig über Patienten mit Covid – die Informationen zur Erstellung von KI waren unvollständig und ungenau. Manchmal nahmen sie es sogar ungeprüft – aus dem Internet.
Der Autor kommt zu dem Schluss, dass vollständige Daten zur Krankheit die Situation korrigieren könnten. Der beste Weg ist seiner Meinung nach die Zusammenarbeit von Ärzten mit Entwicklern. Darüber hinaus könnte die Zusammenarbeit zwischen Wissenschaftlern aus der ganzen Welt helfen, da Forscher oft ähnliche Technologien verwenden.