Forum: Blogs
Big Data: Wundermittel auch für die Medizin?

 

tam_venceremos 16.07.2013, 13:00
1.

"Davon würden auch Ärzte profitieren" - durch Arbeitslosigkeit oder wie darf ich das verstehen? Alles, was (Haus-)Ärzte momentan tun ist Menschen untersuchen und Gegenmaßnahmen vorschlagen. Das kann ein Algorithmus auch, und zwar wesentlich präziser und individueller.
Ich spekuliere mal etwas und behaupte, dass in Zukunft jeder Mensch nach Geburt einen Chip implantiert bekommt, der ständig den (gesundheitlichen) Zustand überwacht und bei Krankheit automatisch Arzneimittel verschreibt. Das wäre auch gut, so lange das von Krankenkassen organisiert wird und nicht von Google. Nicht auszudenken, was man da für Daten sammeln könnte.

Beitrag melden Antworten / Zitieren
dr.joe.66 16.07.2013, 13:06
2.

Wow, ich fasse es nicht!
Ich zitiere: "Was, wenn ein komplexer Mix aus Faktoren für Krankheiten verantwortlich ist?"
Das haben die Mediziner jetzt tatsächlich entdeckt? Das könnte ja tatsächlich die Medizin revolutionieren. Ein Arzt, der fragt was ein Patient sonst noch so macht? Ein Arzt, der sich für die Diagnose Zeit nimmt? Ein Arzt, der nachdenkt bevor er schnell mal was verschreibt?

Schön wär's.
P.S.: Sorry an die Ärzte die schon heute so arbeiten. Aber Sie sind in der Minderheit, das wissen Sie selbst...

Beitrag melden Antworten / Zitieren
happlebee 16.07.2013, 13:26
3.

@tam_venceremos : Was Sie beschreiben hat doch nichts mit Big Data zu tun. Etwas Information hilft selbts im SPON Forum

Beitrag melden Antworten / Zitieren
m-berger 16.07.2013, 13:39
4.

Die vereinheitlichende Medizin kann nicht alle Menschen adäquat zu behandeln. Es ist jedoch deutlich günstiger so zu verfahren. Big Data-Analysen und darauf basierende Expertsysteme bedeuten einen erheblichen Aufwand, doch die Umsetzung individueller Behandlungen ist ein immenser Aufwand. Hier verlässt man nämlich die elektronische Welt. Es gilt reale Patienten mit realen Medikamenten zu behandeln. Ob es sich für die Pharmaindustrie wirtschaftlich rechnet von einem Medikament zig-Versionen zu entwickeln, um den everschiendensten Patientengruppen gerecht zu werden, also Medikamente zu entwickeln, das für nur ein paar tausend Patienten Optimal wäre, bezweifle. Ärzte und Pflegepersonal müssten entweder ihr Wissen vervielfachen oder blind den Vorschlägen der Software folgen. Und als Normalermensch erhielte man in der Apotheke einen 100-Seitigen Beipackzettel, welcher die Nebenwirkungen für die vielen Gruppen aufzählt. Möglicherweise setzt hier die Ökonomie der Wissenschaft grenzen.

Beitrag melden Antworten / Zitieren
Lapsus 16.07.2013, 14:15
5.

Da ist wieder jemand einem verbreiteten, logischen Kurzschluss aufgesessen:
Die Analyse von BigData liefert statistische Aussagen über ein Kollektiv - die Behandlung von Krankheiten erfordert aber individuelles Handeln am Patienten.
Und dieser Patient kann dem statistischen Muster entsprechen oder auch nicht.
Selbst wenn wir wissen, dass eine bestimmte Krankheit bei Anwendung von Regime xyz in 85% der Fälle geheilt werden kann: Würden Sie dieser Behandlung unbesehen zustimmen, ohne zu wissen ob Sie auf Seiten der 85% sind oder eher doch bei den 15%?

Die Analyse von BigData ist definitiv vorteilhaft für Versicherungen. Wenn es gelingt, den Schnittpunkt zwischen verursachten Kosten und (zukünftigen) Beitragszahlungen für ein Klientenkollektiv einigermassen zuverlässig zu bestimmen, kann man über eine abgestufte Zahlungsbereitschaft viel Geld sparen. Vor allem, wenn man dank Analyse von BigData auch noch die durchschnittliche Prozessdauer und das durchschnittliche Prozessrisiko bei Auseinandersetzungen um verweigerte Leistungen kennt ....

Beitrag melden Antworten / Zitieren
112 16.07.2013, 15:03
6.

Ich habe immer gedacht dass bei "Big Data" keine statistische Methoden zur Anwendung kommen, weil das ganze Datenkollektiv bearbeitet wird und eben nicht aus einer Stichprobe auf das Kollektiv geschlossen wird. Zum Beispiel, WalMarkt analysiert das Verhalten jedes einzelnen Kunden und entsprechend individualisiert wird dann die Werbung gemacht. Vor "Big Data" wurden Cluster erstellt (bestimmte Altersgruppe, Einkommen etc.) und mit statischen Methoden ausgewertet und korreliert. Der Sinn der klassischen Statistik war ja gerade der, dass man von wenig Daten auf viele unbekannte Daten , mit einer gewissen Wahrscheinlichkeit, schliessen konnte. Die bedeutet zum Beispiel, dass bei der Kreditvergabe der Name und der Wohnort nicht mehr zur Einstufung der Kreditwürdigkeit nötig ist, denn man hat ja alle Daten der betreffenden Person.

Beitrag melden Antworten / Zitieren
zila 16.07.2013, 15:20
7.

Eines der Grundprobleme der Studien an vielen Patienten ist, dass man so haeufig nur Korrelationen entdeckt.
Das Zusammenspiel von genetischen Faktoren und Medikamenten sowie Supplements kann sehr komplex sein. Vitamin D, Calcium und Vitamin K2 sind so ein Beispiel, Calcium alleine fuehrt zu Arterienverkalkung und Vitamin D erhoeht MGP und Osteocalcin, die aber erst Carboxyliert ihren Dienst verrichten, und dazu braucht es K2, dass wiederum ohne genuegend dieser Proteine wirkungslos waere.
Hab ich ein paar Patienten wo das Zusammenspiel wegen der Ernaehrung (als Faktor schwer einzugrenzen!) funktioniert in einer Gruppe und erkenne aber nicht die Ursache, hebt das zwar den Durchschnitt etwas, identifiziert aber nicht das Problem. Deswegen sind intensive Fallstudien wie an dem praediabetischen Patienten ohne offensichtliche Risikofaktoren vielleicht mittlerweile wichtiger als all diese Studien, wo am Ende dann so Behauptung rauskommen wie "omega-3 erhoeht Prostatakrebsrisiko"

. Ursache und Wirkung ist nicht immer so leicht auszumachen: Erhoeht Bauchspeck die Neigung zur Insulinresistenz oder ist der Bauchspeck die Abwehrmassnahme gegen zuviel Blutzucker?

Beitrag melden Antworten / Zitieren