Na endlich! Nach Jahren mühseliger Vorsorge und medizinischer Rätselraten kommt jetzt der Gamechanger: Eine KI, die dir schon heute sagen kann, welche der über 1.000 Krankheiten dich in Zukunft erwischen wird – von Diabetes über Krebs bis hin zu einer saftigen psychischen Störung. Die Technik nennt sich Delphi-2M und wurde von einem europäischen Forschungsteam entwickelt. Die Hellseherin unter den Algorithmen, powered by ChatGPT-Genetik.
Online seit gestern, 12:58 Uhr
Teilen – oder gleich Testament schreiben.
Früher konnte KI maximal vage sagen: „Achtung, vielleicht Bluthochdruck in fünf Jahren!“ Jetzt aber schießt Delphi-2M den Vogel ab: 20 Jahre in die Zukunft, über tausend Krankheitsbilder – ein medizinisches Netflix für deine kommenden Beschwerden. Und das Beste: Diese Technologie soll auch noch „umsichtig eingesetzt“ werden. Wer’s glaubt, lebt länger. Vielleicht.
Die Revolution der Vorhersage – oder: Kafka trifft Black Mirror
Laut Fachwelt ist Delphi-2M ein echter Durchbruch – zumindest, wenn man es nicht gleich für dystopische Experimente verwendet. Denn Hand aufs Herz: Wer möchte nicht schon mit 32 wissen, dass man mit 53 sehr wahrscheinlich einen besonders fiesen Darmkrebs bekommt? Und wenn man das weiß – bekommt man dann eigentlich noch eine Lebensversicherung? Oder eine Hypothek? Oder einen Job?
„ORF Wissen“ hat sich tapfer durch diese Fragen gewühlt und unter anderem mit Maria Kletecka-Pulker, Juristin und Expertin für digitale Ethik, und Oliver Kimberger von der MedUni Wien gesprochen. Die beiden haben eine gute Nachricht: Der Algorithmus ist noch nicht im Einsatz. Die schlechte: Das wird wohl nur noch zehn Jahre dauern.
Warum dauert das Ganze so lange? Bürokratie sei Dank!
Zum Glück braucht es regulatorische Hürden – sonst könnte man dieses Orakel von morgen schon heute an jeden Arzt verkaufen, der gern Glaskugel spielt. Kimberger erklärt: „Das ist dann ein Medizinprodukt. Das muss getestet werden.“ Und man müsse unbedingt klären, woher die Daten stammen – also ob die KI nur bei wohlhabenden Privatpatienten „gelernt“ hat, oder auch bei Leuten aus dem echten Leben. Keine Sorge: Sobald die KI nur bei Millionären funktioniert, wird sie bestimmt flächendeckend eingeführt.
Wissen oder lieber in Panik ausbrechen?
Die Juristin Kletecka-Pulker bringt es auf den Punkt: Es gibt ein Recht auf Wissen – und ein ebenso wichtiges Recht auf Nichtwissen. Oder anders gesagt: Man darf sich aussuchen, ob man sich ruinieren lässt, weil man stirbt, oder ruinieren lässt, weil man glaubt, man stirbt.
Und was ist mit Wahrscheinlichkeiten von 0,001 Prozent? Für die meisten Menschen sowieso schwer verständlich – aber perfekt geeignet, um schlaflose Nächte zu verursachen.
Wissen ≠ Verstehen = Verunsichern
Kimberger meint: Ärzte müssten künftig entscheiden, ob ein Patient reif genug ist, sich seine potenzielle Krankheitshistorie wie einen Schicksalsbericht vorlesen zu lassen. Aber was, wenn die KI Dinge voraussagt, die man nicht ändern kann? Krebs mit unsicherem Verlauf? Super – das nützt dann genauso viel wie die Wettervorhersage für in 17 Jahren.
Und Kletecka-Pulker ergänzt: Selbst wenn wir wissen, dass Rauchen tödlich ist – ändern Menschen deshalb ihr Verhalten? Spoiler: nein. Aber hey, vielleicht macht’s ja mehr Spaß, mit Todeswahrscheinlichkeit in Prozent auf der Zigarettenpackung.
Versicherungen, Arbeitgeber und Banken jubeln leise
Die große Angst: Solche Infos könnten irgendwann zur Einstellungs- oder Kreditfrage werden. Schließlich will niemand einen Mitarbeiter, der laut KI in fünf Jahren vom Schlag getroffen wird – selbst wenn er heute topfit ist. Aber keine Sorge: Solche Daten dürfen natürlich nicht verknüpft werden. Ganz bestimmt nicht. Und wenn doch, dann sieht man das im Logfile! (Also, vielleicht. Wenn man’s überprüft. Irgendwann.)
Alle wollen die Daten – keiner will sie hergeben
Die KI braucht möglichst viele Datensätze, um gut zu funktionieren. Das Blöde daran: Niemand will seine Daten hergeben. Lösung laut Kletecka-Pulker? Eine Opt-out-Regelung: Du musst aktiv widersprechen, damit deine Daten nicht verwendet werden. Klingt nach Datenschutz à la „Friss oder stirb“.
Österreich und das Datenchaos
Problematisch sei auch, dass Österreichs Krankenhäuser ihre Daten so unterschiedlich speichern, dass selbst eine KI verzweifelt aufgibt. Daten-Silos überall. Die gute Nachricht: Nicht nur Österreich kriegt es nicht hin – Europa zieht gleich mit. Internationale Gleichstellung der Digital-Pannen!
Ein europäischer Algorithmus für alle – oder keiner?
Delphi-2M wurde mit Daten aus Großbritannien trainiert. Klingt gut, bis man merkt: Britische Patienten sind britisch – und nicht österreichisch, deutsch oder portugiesisch. Selbst die Krankheit wird dort manchmal höflicher behandelt. Also muss die EU jetzt helfen, damit am Ende nicht nur weiße, wohlhabende, männliche Datensätze das Modell dominieren.
Fazit: KI ist toll – wenn man ihr nicht zu sehr vertraut
Kletecka-Pulker ist jedenfalls optimistisch: „Es ist ein gutes Tool.“ Ja – wenn man weiß, was man tut. Und wenn man’s reguliert. Und wenn man aufpasst. Und wenn keiner Unfug damit treibt. Und wenn die Daten stimmen. Und wenn niemand benachteiligt wird. Und wenn der Datenschutz funktioniert. Und wenn die Leute es richtig verstehen.
Also alles in Butter.
Kommentar hinterlassen