Spätestens seit der Veröffentlichung des dialogbasierten Chatbots “Chat-GPT” von OpenAI sind Begriffe wie “künstliche Intelligenz” und “Machine Learning” in aller Munde. Doch was genau verbirgt sich hinter dem nebulösen Begriff der künstlichen Intelligenz? An welcher Stelle ist KI schon fester Bestandteil unseres täglichen Lebens und welches Potenzial hat diese Technologie für das Gesundheitswesen? Um Antworten auf diese und weitere Fragen zu finden, ist Dr. Jasmina Bogojewska zu Gast in der aktuellen Folge von Marktplatz Gesundheitswesen. Die promovierte Bioinformatikerin ist Dozentin am Zentrum für künstliche Intelligenz der Zürcher Hochschule für angewandte Wissenschaften und daher die ideale Gesprächspartnerin für dieses Thema. Hören Sie in diese Folge und erfahren Sie u.a., wie die Entwicklung von künstlicher Intelligenz erfolgt, welche Bedeutung der Qualität von Daten in diesem Prozess zukommt und welchen Einfluss der politische und gesellschaftliche Willen hat, wenn es darum geht, die Entwicklung und Nutzung von künstlicher Intelligenz voranzutreiben.
Mehr zu Frau Bogojeska können Sie unter https://www.zhaw.ch/de/ueber-uns/person/bogo/ erfahren. Sie freut sich auf eine Kontaktaufnahme zwecks Kooperationen im Bereich AI im Gesundheitswesen!
Fragen und Antworten
Ich bin von Daten begeistert, das Wissen daraus in der Praxis anzuwenden.
Ich arbeite sehr gerne mit Studenten zusammen.
Während des Lockdowns habe ich Haareschneiden gelernt, für meinen Mann und Sohn.
Während meines Masterstudiums, als ich durch meinen Professor mit diesem Thema in der Bioinformatik in Kontakt kam. Seine Beispiele, die bereits damals in der Medizin umgesetzt wurden, hatten mich sehr inspiriert.
In meinem Umfeld hat es viele Mediziner und ich war immer umgeben von diesem Thema. Auch wollte ich Freunden mit gesundheitlichen Problemen immer helfen. Lange wusste ich nicht, ob ich Medizin oder Informatik studieren will, deswegen bin ich wahrscheinlich auch in der Bioinformatik gelandet.
Im Bereich der Bioinformatik wurde dies z.B. bei der Vorhersage von erfolgreichen HIV-Therapien eingesetzt; welches Medikament wirkt, welches nicht.
Es ist die Fähigkeit zu denken und zu lernen, Informationen aufzunehmen und in Wissen zu verwandeln. Unsere Fähigkeit, Probleme zu lösen und kreativ zu sein. Auch all diese Fähigkeiten erfolgreich in neuen Umgebungen anzuwenden.
KI ist, wenn die zuvor beschriebenen Prozesse und Fähigkeiten von Maschinen nachgeahmt werden.
Es gibt «Maschinelles Learning», das weiter unterteilt wird in Supervised Learning, Unsupervised Learning, Reinforcement Learning, Knowledge Representation, Planning und Natural Language Processing. Es hat viele verschiedene Subgebiete.
Im Bereich der datenbasierten Systeme haben wir einen grossen Schritt vorwärts gemacht, wie z.B. Spracherkennung oder selbstfahrende Autos. Strategische Spiele wie Schach, die von Maschinen gewonnen werden, Gesichts- und Objekterkennung oder auch Übersetzungssysteme sind heute sehr verlässlich.
Die Verknüpfung von unterschiedlichem Wissen und dies zu abstrahieren wie kausale Schlussfolgerung, was für uns Menschen sehr einfach ist.
Heute sind Systeme auf singuläre Probleme fokussiert und lösen diese gut, sie können jedoch nicht einfach auf eine komplett andere Problemstellung angewandt werden und dabei gleich gute Ergebnisse erzielen.
Hier meine ich das Konzept von Rechnen, z.B. eine komplexe Gleichung lösen. Wenn wir die Regeln dafür vorgeben, dann können Maschinen das, aber ohne Input und Training funktioniert es bei neuen Problemen nicht.
Da es hervorragend funktioniert und man viele unterschiedliche Aufgaben mit einem System gut lösen kann, etwas übersetzten, Lebensläufe schreiben oder auch Code damit erstellen. Es ist eine Entwicklung im Bereich von Natural Language Processing.
Persönlich nütze ich es für Übersetzungen und Definition, was einwandfrei funktioniert. In gewissen Bereichen, wie z.B. Dosierung von Medikamenten, sollte man sich auf andere Quellen verlassen.
ChatGPT wurde mit Billionen von Daten bis 2021 trainiert, weswegen neue Informationen aus den Jahren danach fehlen. Es ist nicht auszuschliessen, dass auch Fake News dabei waren.
ChatGPT ist ein generatives Model, das sich auch etwas ausdenkt. Braucht man Fakten, so muss man diese überprüfen.
Aus Interesse habe ich ein Gedicht erstellen lassen. Von der Form her war es perfekt, wovon ich beeindruckt war. Inhaltlich ist es jedoch noch verbesserbar. Fraglich ist aber, wie man den Inhalt auf Urheberrechtlichkeit prüft. Ist es etwas Neues oder ein zusammengestückeltes Werk aus vielen Gedichten?
Für viele repetitive Tätigkeiten kann mit solch einem System eine Effizienzsteigerung erreicht werden.
Mit Technologien wie ChatGPT kann man zum Beispiel viele Berichte, bei einem chronisch kranken Menschen, zu einem grossen Bericht zusammenfassen. So kann viel Zeit gespart werden, die man mit Patienten nutzen kann.
Um medizinische Inhalte korrekt wiedergeben zu können, wäre ein Training solcher Maschinen mit Experten aus dem Medizinbereich nötig. Das könnte man gut weiterentwickeln.
Anhand von verschiedenen Datentypen, die wichtig für eine Diagnose oder Therapien sind, wie Berichte, Bilder oder Zeitreihen, werden neue Methoden entwickelt, um daraus Wissen zu generieren. Daraus können in Kombination mit Experten neue Therapien oder Prognosen vorgeschlagen werden. Der erste Schritt ist es, diese zu überprüfen und testen.
Meine Vision ist es, multimodale Daten zu verwenden für viele verschiedene Anwendungen, wie Medikamentenentwicklungen. Es hat in diesem Bereich sehr viele Möglichkeiten.
Ich fange immer mit den Experten an. Welche Daten und Datenquellen benutzen sie aktuell? Unterschiedliche Quellen müssen verknüpft werden, um eine Entscheidung als Experte zu treffen.
Dieser Prozess soll durch KI erfolgreich übernommen werden und als System gemeinsam mit den Experten wie auch den Patienten arbeiten.
Es ist gut, wenn die Methoden anfangs alles berücksichtigen. Im Anschluss kann man Daten weglassen. Fraglich ist jedoch, ob meine Population repräsentativ ist, um die Daten wegzulassen.
Die Vertrauenswürdigkeit der Methoden ist hier immer ein grosses Thema bei Gesundheitsanwendungen.
Das ist auch mein Forschungsfeld, welche Inputs waren wichtig für die Entscheidungen und was macht die Methode genau? Bei komplexen Methoden kann man hierfür auch klinische Studien durchführen.
Nein.
Klinische Studien laufen lange und sind abhängig davon, wie schnell sich Krankheiten entwickeln und wie lange es dauert, bis wir die Ergebnisse haben. Meine Hoffnung ist, dass dies zukünftig auch verkürzt wird. Beispielsweise wurde noch nie so schnell eine Impfung entwickelt, getestet und auf den Markt gebracht wie bei Covid-19.
Der Prozess soll sich meiner Meinung nach anpassen, alle sollen zusammenarbeiten, damit alles etwas schneller geht.
Ich hatte bisher sehr gute Erfahrungen. Viele sind offen für etwas, dass die Effizienz steigert, da alle sehr viel zu tun haben. Auch begrüssen sie es, wenn die Diagnosestellung verbessert wird. Der Vorteil von KI ist, dass diese all die vorhandenen Daten kennen. Bereits unsere Genom-Sequenz hat 20 000 unterschiedliche Proteincodes, wie wollen wir diese als Mensch alle kennen. Für einen Vorzeigefall mit guten Ergebnissen braucht es nicht viele Beteiligte. Wir alle werden davon zukünftig profitieren.
Erklärbare bzw. vertrauenswürdige AI bedeutet, dass es eine Erklärung anhand eines Modells gibt, wie diese zu der Entscheidung gekommen ist. Eine Erklärung, die für Menschen und die Benutzer verständlich ist. Es gibt viele Verfahren, die auf relevanten Inputs, Interaktionen oder Bildern basieren. Für meine Forschung ist wichtig, dass die Methoden in der Praxis erfolgreich angewendet werden können. Dafür benötigt man detaillierte und verständliche Erklärungen, warum die Entscheidungen so getroffen wurden oder wie die Tests durchgeführt wurden in Zusammenarbeit mit den Experten.
Wir müssen immer wissen, welche Daten für das Training der Methode verwendet wurden und auf welche Daten es anwendbar ist. Hat es hier eine grosse Diskrepanz, so kann man dem nicht vertrauen. Hierfür ist wiederum eine Analyse mit den Experten nötig, um zu wissen, welche Daten in der Praxis vorkommen.
Hierzu gibt es immer wieder Diskussionen, z.B. bei selbstfahrenden Autos, wer übernimmt die Verantwortung, wenn etwas passiert?
War etwas einfach vorherzusehen und es wurde nichts unternommen, um es zu verhindern, so muss die Situation genauer betrachtet werden. Dies ist momentan noch ein sehr offener Bereich, wo Vorschriften fehlen.
Eine Kontrolle der Quellen und auch der Plausibilität ist wichtig. KI Entwickler sollen vorsichtig mit der Verantwortung umgehen. Zum heutigen Zeitpunkt sollen Anwender in Bereichen wie z.B. der Medizin immer mit Experten gemeinsam Entscheidungen treffen. Eventuell ändert sich das im Laufe der Zeit noch. Wir Menschen machen jedoch auch Fehler.
Für manche Sachen brauchen wir Menschen jemanden, der einem zuhört, nicht nur einen Chatbot.
Wenn wir genau bestimmen können, in welcher Situation es welche Wörter braucht, dann kann diese Empathie vielleicht gespiegelt werden. Fraglich bleibt jedoch, wenn uns Menschen kein Individuum gegenübersteht, ob wir dann das Gleiche empfinden.
Es ist schwer zu sagen, aber es ist sehr beeindruckend, dass KI in fast allen Aspekten des Lebens mitspielt. Vieles funktioniert sehr gut wie beispielsweise online Suchmaschinen, Objekt- oder Gesichtserkennung.
In Bereichen wie der kausalen Schlussfolgerung oder Abstraktionen hat es Luft nach oben und man kann noch mehr forschen. Vielleicht braucht es aber andere Methoden, wie dies gemacht werden soll und nicht so wie es bei uns Menschen abläuft.
Etwas, das für mich persönlich wichtig ist. Ich würde sehr gerne eine vertrauenswürdige KI entwickeln, die Hand in Hand mit Ärzten und Patienten zusammenarbeitet und es dadurch zu einer besseren Gesundheitsversorgung kommt.