Welche Software nutzt mein Hausarzt und was macht er damit?

Der Markt für Arztsysteme, die sich an niedergelassene Hausärzte richten, ist in den letzten Jahren überschaubarer geworden. Trotz der anhaltenden Marktkonzentration auf wenige Anbieter (Compugroup, Medatixx), sind viele der in diese Konzerne integrierten Systeme bisher unverändert geblieben – Bestandspflege nennt man das wohl.

Die Innovationskraft scheint in diesem Marktsegment folglich sonderlich hoch zu sein. Daher haben wir (vom Institut für Allgemeinmedizin der MHH) uns gefragt, welche Software die Ärzte einsetzen, welche Funktionen sie nutzen, welche Möglichkeiten der Qualitätssicherung es in den Produkten gibt und ob sich an der gesamten Situation etwas optimieren lässt? Aus den Untersuchungen sollen später praktische Hilfen, Leitfäden und Implementierungsrichtlinien entwickelt werden.

Zum Auftakt (einer möglichen Artikelserie) haben wir eine Umfrage unter Hausärzten zur Nutzung ihrer Software durchgeführt und die Ergebnisse in der Zeitschrift für Allgemeinmedizin publiziert. Wenig überraschend ist, dass die am häufigsten genutzte Funktion jene für die Abrechnung ist. Für mich eher überraschend war die Tatsache, dass der Großteil der Befragten mit seiner Software und den gebotenen Funktionen zufrieden ist. Das hätte ich nach Jahren der Praxisbetreuung und des IT-Supports so nicht erwartet.

 

Mitglied im QMS

Der „Qualitätsring Medizinische Software“ kümmert sich um die Weiterentwicklung der BDT- und GDT-Schnittstellen. In Anbetracht mangelnder frei zugänglicher Alternativen oder gar offener, etablierter Standards zur Übertragung von Behandlungsdaten im ambulanten Sektor, halte ich es für äußert sinnvoll und praktikabel, vorhandenes weiter zu entwickeln.

Ein mögliches Ziel, die Aktualisierung der BDT-Schnittstelle und technologische Überführung dieser in ein XML-Schema macht Sinn. Ein Erfolgsgarant dürfte es dabei sein, sich an pragmatischen Lösungen zu orientieren, wie etwa dem Continuity of Care Record und sich nicht in den Tiefen des HL7-Referenzmodells zu verirren. Nur so dürften auch kleinere Hersteller in der Lage sein, mit akzeptablem Aufwand eine Implementierung zu realisieren. In der guten Hoffnung hier etwas sinnvolles beitragen zu können, bin ich nun Mitglied im QMS geworden.

Offen bleibt natürlich die Frage, wie eine moderne, lege artis entworfene Schnittstelle so in die Breite gebracht werden kann, dass Sie auch den Nutzern (Ärzten) und der Forschung frei zugänglich ist – und nicht mit den teilweise erheblichen Schikanen und Zugangseinschränkungen durch die Systemhersteller belegt wird, wie dies bei BDT aktuell noch der Fall ist. Hier bin ich auf die Meinungen der anderen Vereinsmitglieder gespannt …

Mein erster Computer

Ich habe ihn gefunden – nach einiger Suche und Erinnerungsschwierigkeiten ( … ich dachte das Teil wäre von Fischertechnik gewesen …): Mein erster Computer, der Kosmos CP1:

Datei:Kosmos cp1.jpg

So weit ich mich erinnere, haben wir mal in einem „Computerkurs“ (1985?) mit dem Ding eine Miniatur-Ampelsteuerung mit Leuchtdioden programmiert. Dumm nur das die mühselig eingetippten Zahlenbefehle nach dem Rausziehen des Steckers wieder futsch waren. Aber immerhin: Es war auch schon damals „Intel inside„.

 

Daten in Gesundheitswesen und Versorgungsforschung

Der Titel dieses Artikels entspricht grob gesagt meinem Betätigungsfeld als (teilzeit-) wissenschaflticher Mitarbeiter am Institut für Allgemeinmedzin der Medizinischen Hochschule Hannover. Vor dem Hintergrund war ich vom 26.-27.10.2011 in Göttingen im Freizeit In (Bild), um an dem gemeinsamen Jahretreffen von HL7-Deutschland und IHE teilzunehmen.

Die HL7-Treffen waren in den letzten Jahren ein sehr gutes Forum, um sich einen praxisnahen Überblick über den Stand der (Daten-)Technik im Gesundheitswesen im deutschsprachigen Raum zu verschaffen – so auch dieses Mal.

Im Allgemein scheint sich technisch in letzter Zeit nicht sehr viel Neues ergeben zu haben, zumindest was die tatsächliche Implementierung in der Praxis betrifft, dennoch ergaben sich einige Denkanstöße für die Zukunft. Einige Aspkete habe ich nachstehend aufgeführt.

Der aktuelle Stand der Dinge (aus der Sicht von jemanden, der gerne mit hausärztlichen Routinedaten unabhängig forschen möchte und dafür „Schnittstellen“ sucht …. ):

1. Stationärer Sektor und niedergelassenen Praxen sind technisch noch nicht ausreichend miteinander verschmolzen, noch immer gibt es hauptsächlich HL7 auf der einen (klinischen) und xDT auf der anderen (ambulanten) Seite.

2. HL7 Version 2.x und Kommunikationsserver (Cloverleaf, Mirth, Ensemble, …) sind nach wie vor das Maß der Dinge für den Datenaustausch im KIS-Umfeld (Siemens, Agfa Orbis, iSoft, …)

3. In der Primärversorgung (z. B. niedergelassene  Allgemeinmediziner… ) war in den letzten Jahren eine Marktonzentration auf wenige Hersteller von Arztsystemen (Medistar, Turbomed, … ) zu beobachten. Die Hersteller (Compugroup, Medatixx, …) forcieren die Etablierung eigener Produkte zur elektronischen Patientenakte (EPA) oder Schnittstellen / Kommunikationslösungen, wie Vita-X/CGM-Life oder comdoxx. Eine flächendeckende Lösung zum einheitlichen, intersektoralen, interoperablen Datenaustausch scheint nach wie vor nicht in Sicht. Der elektronische Arztbrief auf Basis von HL7/CDA scheint zwar ein guter Start zu sein, den Ausführungen auf der Tagung zufolge jedoch noch verbesserungsfähig vom Masseneinsatz noch weit entfernt. Vor diesem Hintergrund scheinen für die Allgemeinmedizin der Continuity of Care Record (CCR) und dessen HL7/CDA-konforme Umsetzung in das Continuity of Care Document (CCD) relevant zu sein.

3. Es darf bezweifelt werden, das die elektronische Gesundheitskarte, außer einer bundesweiten PKI-Struktur, noch irgendein weiteres „Gesundheits-Problem“ nachhaltig löst, was allerdings auch nur bedingt ihre Aufgabe ist. Dennoch ist eine einheitliche Infrastruktur Grundvoraussetzung für sinnvolle, gemeinsame Anwendungen, die auf dieser Struktur aufbauen und heute vielleicht noch garnicht bekannt sind.

Die interessantesten Denkanstösße aus Tagung und Tutorials ergaben sich für mich vor allem für das Forschungsumfeld:

1. CDISC

Vertreten durch Pierre-Yves Lastic wurde neben CDSIC auch das Projekt EHR4CR vorgestellt (Bild).

CDISC bietet, getrieben durch die Notwendigkeit der Pharmaindustrie Studiendaten im SDTM-Format bei der FDA einzureichen, viele weit entwickelte „Bausteine“ zur Erfassunng und Strukturierung von Daten und zur Nutzung in der klinischen Forschung, beispielsweise das BRIDG-Modell und CDASH. Aktuelle Entwicklungen, beispielweise der Abstimmung mit dem HL7-RIM-Modell, machen Hoffnung, dass sich die „Bausteine“ weiter verbreiten und vielleicht auch von der klinischen Forschung in die Versorgungsforschung abfärben, wo es noch an einheitlichen Modellen mangelt.

2. IHE-Profile

Im Tutorial zu HL7 und IHE gab es von Herrn Heitmann einen guten Überlick, wie die aktuellen Entwicklungen, Institutionen und Standardisierungsbemühungen im  Gesundheitswesen einzuordnen sind. Eine übergeordnete Sonderrolle wurde dabei IHE zugedacht. Die Initiative definiert allgemeine Anwendungsfälle im Gesundheitswesen und schlägt hierfür Lösungen in Form von „best-practices“ auf Basis aktueller Technologien vor (Profile). So können einerseits für bestimmte Problemszenarien zielsicher passende Produktlösungen im Markt identifiziert werden. Andererseits werden allgemeingültige Prozesse defineirt, die für jedermann einsehbar, anpassbar und nutzbar sind. Insbesondere scheint es (neuerdings) bei den Profilen zu Qualitätssicherung, Forschung und Public Health zunehmende Aktivitäten zugeben. Dies ist möglicherweise eine gute Anlaufstelle für die akademische Versorgungsforschung, sich praxisnah einzubringen.

3. EPA & Co.

Anscheinend waren einige Teilnehmer  die akademische Diskussion, wie eine elektronische Patientenakte (EPA) definiert und implementiert wird, oder ob es doch besser eine elektronische Fallakte (EFA) sein solle und wie das alles datenschutztechnisch abzubilden ist bereits leid.Vor diesem Hintergrund fand ich den Vortrag von Björn Bergh aus Heidelberg sehr interessant, der darauf hinwies, dass die letzten Versuche zur Etablierung einer persönlichen Gesundheitsakte durch große Mitspieler (Google Health, ICW Life Sensor, Microsoft Health Vault, Barmer) allesamt gescheitert sind. Neben Akzeptanzproblemen und fehlenden Märkten, scheint vor allem der Datenschutz in Deutschalnd bremsende Wirkung zu haben. Als Lösnug wurde ein Verfahren skizziert, welches einen zentralen Master Patient Index (MPI) nutzt und die Vorteile des Personal Health Records (PHR), z. B. die Selbstbestimmungsrecht des Patienten, mit den Vorteilen eines zentralen Electronic Health Record (EHR), z. B. beim Datenschutz, kombiiniert. Vielleicht lassen hieraus auch Szenarien für die Versorgungsforschung ableiten.

4. Semantic & Co.

Für eine intersektorale, semantische interoperable Kommunikation Bedarf es einiger Grundbausteine, für die die Wissensrepräsentation noch einige mehr. Einheitliche Modelle und Terminologien wären schön. Aber ist das RIM immer passend oder brauche ich mein eigenes Modell? Muss es Snomed sein? Reicht ICD? Brauch ich Archetypen? Wie bilde ich medizinisches Wissen ab? … Gut fand ich in diesem Kontext die sinngemäße Aussage von Peter Adlassnig aus Wien im letzten Vortrag der Veranstaltung ..: „Wir haben es allen Bedenkenträgern zum Trotz einfach mal gemacht, die Bausteine sind ja da.“.  Mit Arden haben er und seine Leute ein medizinisches Decision Support System (DSS) entwickelt und zur markreife gebracht. Viellecht wäre dies auch für die Allgemeinmediziner eine Möglichkeit, ihre Leitlinien einheitlich elektronisch zu implementieren. Unter anderem dafür wäre es extrem hilfreich, wenn die Behandlungsdokumetation etwas strukturierter als bisher erfolgen würde. Der direkteste Anknüpfungspunkt scheint mir zu sein, sich zunächst einmal darauf zu konzentrieren, neben der freitextlichen Dokumentation, zusätzlich alle Infomormationen zu kodieren, für die bereits etablierte Ordungssysteme existieren. Nach unseren bisherigen Routinedaten-Untersuchungen ist hier noch reichlich Luft nach oben.

So. Die Informationen waren zwar nicht alle von der HL7/IHE-Tagung, aber macht ja nix 😉

Morgens halb 8 am Maschsee …

Eines schönen Morgens im Oktober war ich mit dem Rad zum Bahnhof unterwegs. Der frühe Bodennebel hüllte die Ricklinger Teiche und weitere Wiesenflächen zwischen Hemmingen und den Maschssee in ein surreal wirkendes Ambiente. Das konnte man mit der doch eher schlechten Kamera des iPhones kaum einfagen, dennoch hier der Versuch:

 

Ottenstein – Der Film

Und noch ein altes Relikt:

Vor 10 Jahren durfte ich für das schöne Örtchen Ottenstein im Weserbergland einen kleinen Film anlässlich des Wettbewerbs  „Unser Dorf soll schöner werden / Unser Dorf hat Zukunft“ anfertigen durfte.

Ottenstein gewann 2001 sogar die Goldauszeichnung des Wettbewerbs, was natürlich nicht nur an dem Video lag, welches bei der Begutachtung im Rahmen des Wettbewerbs seine „Uraufführung“ hatte 😉 Nun ist mir die finale Datei dieses Projekts in einer alten Sicherung zufällig wieder begegnet … und bevor die wieder im Nirvana verschwindet, habe ich sie bei YouTube hinterlegt:

PS: Der Eingeweihte wird es gemerkt haben: Der Vorspann-Effekt ist aus Quake III Arena geklaut … 😉

PPS: >> Eine komakte Originalversion des Films im WMV-Format kann für den privaten Gebrauch hier heruntergeladen werden <<.

Es war einmal …

Der folgende “Beitrag” war irgendwann einmal auf meiner Homepage, zu Zeiten, als es WordPress noch nicht gab und HTML noch selbst gestrickt werden musste. Aus aktuellem Anlass habe ich ihm wieder ausgegraben und hier ins Blog kopiert. Beim Lesen bitte daran denken, dass der folgende Text wohl einige Jahre alt ist. Ich habe auch nicht alle Links erneut geprüft, bestimmt geht der ein oder andere nicht mehr.

————————————————————————————————–

Es war einmal … das Videospiel.

pong2

Es muss über 20 Jahre her sein, als ich mein erstes Videospiel in der Hand hielt: Irgendeinen blauen Kasten, mit dem man am TV eine Art Tennis spielen konnte, was sich allerdings nur als zwei horizontal bewegliche, helle Balken (Schläger) und ein zuckendes Quadrat (Ball) darstellte. Genauer gesagt war es ein Klon von „Pong“, einem der ersten Videospiele überhaupt. Kurz darauf gab es dann eine Spielkonsole von Texas Instruments und natürlich den Klassiker von Atari, die man getrost als Vorfahren der Playstation bezeichnen darf. Da ich aber bis heute kein Freund der Spielkonsolen geworden bin, war es für mich auch nur ein kurzer Zwischenschritt, zudem kurz drauf der unvergessene Klassiker und Vater aller Heimcomputer auf den Markt kam …. der C64.

c64s

Dieser kleine graue Brotkasten mit unglaublichen 64K Speicher hat wohl so einiges verändert und unzählige Wohnzimmer erobert. Es gab zwar noch diverse andere Geräte, wie den ZX81 oder den Amstrad, aber wenn ich an den Begriff „Heimcomputer“ denke, denke ich nur an den C64.Nicht selten mit sowas wie Wehmut, bei dem Gedanken an den Charme der guten alten 4aus16 Farben – Spiele. Nächte haben wir mit Freunden bei der Rekordjagt vor „Summer Games“ verbracht.

kobold_l

Mein persönlicher Favorit damals war jedoch der Rollenspiel – Klassiker „The Bard’s Tale„. Ich kann mich nicht erinnern jemals wieder so tief in die Atmosphäre eines Spiels eingetaucht zu sein – und das damals ganz ohne Truecolor-Cinematics oder sonstigen Schnickschnack. Irgendwie (für mich) ein Beweis dafür, dass man für Ideen und Fantasien keine Geforce oder Gigaflops braucht. Nagut, kann auch sein dass ich damals einfach noch mehr Kind war als heute:) Aber der C64 war auch das Gerät, auf dem ich dann langsam angefangen habe „sinnvolle“ Dinge zu tun, wie mir BASIC beizubringen oder Schallplatten zu verwalten (Für die jüngeren: Das sind so große schwarze Plastikscheiben mit Musik drauf). Aber die Entwicklung ging zum Glück weiter, denn es wurde ja auch vieles noch besser, z.B …. beim Amiga.

amiga

Bis zu 4096 Farben, integriertes Floppy-Laufwerk und 68000er CPU. Eigentlich ein kleiner Meilenstein, aber für mich nur ein weiterer kleiner Zwischenschritt. Doch auch vor diesem Commodore – Gerät haben wir Nächte verbracht, mit Klassikern wie „Defender of the Crown“, „Bomberman“ oder „Lotus 2“, wobei letzteres mein persönlicher Favorit war, welches wir meistens auch mit 2 gekoppelten Amigas zu viert gezockt haben, bis der „Competition Pro Joystick“ den Geist aufgab. Tja, im Gegensatz zu den Pseudo-Midi-Hobby-Musikern mit ihrem Atari ST hatten wir also zu Hause einen Amiga 500, aber so richtig konnte ich mich nie damit identifizieren. Kann natürlich auch daran liegen, dass er eigentlich meinem Bruder gehörte, der darauf seine „Rainbow Islands“ – Künste perfektionierte und ich fast gleichzeitig in die „Profiliga“ einstieg, mit meinem ersten … PC.

Ich war einer der Glücklichen, die damals gleich mit einem 268er AT, 1 MB Speicher und 10 GB Festplatte einsteigen durften, was in etwa soviel gekostet hat, wie heute ein absolutes Highend – Notebook. In der Schule durften wir uns Turbo Pascal noch auf XT – Rechnern beibringen, bei denen man immer schön vor dem grünen Bildschirm warten durfte, bis MS-DOS endlich von der Floppy gebootet war, da Festplatten noch Mangelware waren. Wenigsten war man so weise, die alten CP/M -Rechner mit ihren 12“ – Floppy rechtzeitig auszumustern, obwohl wir darauf immerhin schon „Schlange“ spielen durften, was man heute vielleicht von dem einen oder anderen Handy her kennt. Spielerisch gesehen war der PC am Anfang ja erst mal ein richtiger Rückschritt. War man vom Amiga und C64 noch bunte Farben und starke Soundtracks á la „Monty on the Run“ gewohnt war, musste man im PC – Bereich lange warten, bis endlich mit VGA – Grafikkarten und der ersten Soundblaster – Karte eine spieletaugliche Basis geschaffen wurde.

15357g

Und Schwupps kam auch schon der erste Spieleknaller auf den Markt: „Leisure Suit Larry“. Ein leicht frivoles Adventure, was aber leider nun gar nicht mein bevorzugtes Genre war. Doch subjektiv würd ich sagen, das der PC als Spieleplattform eben seit „Larry“ nicht mehr wegzudenken war oder besser gesagt seit der ersten Reihe von „guten“ Adevntures wie „Zork“ oder Rollenspielen wie „Ultima“. Adventures sind zwar auch Computerspiele, doch seit ich Starwars im Kino gesehen wollte ich immer an meinem Rechner ein Spiel spielen, das ähnliche Effekte bietet und mich in einen Raumgleiter inmitten einer riesigen Schlacht versetzt.

wcpSo bin ich dann über „Elite“ schließlich bei „Wing Commander“ gelandet, dem wohl ersten echten Action-Spiel für den PC. Die „Wing Commander“ – Serie war dann für mich auch einer der Gründe für den bis heute andauernden Aufrüst-Wahn, da bei jeder neuen „Wing Commander“ – Episode entweder die Festplatte zu klein war, der Sound zu schlecht oder der Rechner einfach zu lahm. Auch mein erstes CD-Laufwerk, ein 2x Speed von Mitsumi hatte einen seiner Beschaffungsgründe in der „Wing Commander“ – Serie. Zur Zeit habe ich, was das Aufrüsten angeht, zum ersten Mal seit meinem 286er einen toten Punkt erreicht, denn für alle Spiele die ich besitze oder mir in der nahen Zukunft zulegen werde, reicht die Leistung aktueller PC’s aus, wie die von meinem 1,8 Ghz Athlon mit Radeon 8500 und 100 GB – UDMA Raid.

Natürlich gibt es bereits die nächste Generation. Aber da das für mich wichtigste aller Spiele, Quake 3, selbst bei 1280×1024 „flutscht“, sehe ich das erste mal seit langem keinen Bedarf aufzurüsten. Nagut, da ich auch hin und wieder mit Videos und Bildern hantiere, weiß ich, dass man Rechenpower nie genug haben kann.

Aber von den hunderten (oder tausenden??!?) Spielen, die ich in den letzten 15 Jahren an- oder durchgespielt habe, sind nur eine Handvoll Spiele übrig geblieben, denen ich das Prädikat „Best Game Ever“ verleihen würde und eigentlich sind nur 2 Spiele übrig, die ich auch heute noch spiele und davon eins, welches ich garantiert auch morgen noch spielen werde:

flameqq2vQauke

Ein Synonym für 3D – Action und EGO – Shooter. OK, indiziert, vielleicht auch zurecht, aber irgendwie genau das, wovon man zu C64 – Zeiten geträumt hat. Klar, Halflife hat den schöneren Einspielermodus. Unreal war nicht schlecht, Max Payne ist auch ganz schön aber es ist halt, wie vieles andere auch, nur kopiert … von Quake. Und liebe Counterstrike Fans: Teamgame und Charaktere … das gab’s auch schon bei meinem All-Time-Best-Award-Winner Team Fortress für Quake 1. Leider gab’s das nicht für Quake 2 und die Halflife TFC-Variante war ja eher so “naja”. Und Q3F hat sich irgendwie nicht durchgesetzt, daher bin ich auf Capture the Flag umgestiegen. Seit diesen Quake – Varianten und seit ich mein erstes Modem, ein flottes 14.4er besaß, ist mir der Einspielermodus von fast allen Spielen auch egal, da ich sowieso nur online spiele. Einzige Ausnahme: Diablo 1+2.

anim2generalskanim3

Ganz klar auf Platz 2 meiner ewigen Bestenliste. Bei den folgenden Plätzen bin ich mir dann nicht mehr sicher, einige heiße Anwärter auf Platz 3 sind für mich Command & Conquer, Die DSA Reihe, Age of Empires, Ultima, Warcraft …. aber es ist ja eigentlich auch egal, denn spielen sollte ja jeder was er/sie für gut hält, also genug der Worte und ans Gerät, ich weiß eh nicht für wen ich das hier mache … 🙂

Ein kleiner Nachtrag ist aber jetzt (Frühjar 2003) doch nötig. Zwar habe ich längere Zeit so gut wie gar nichts mehr gespielt, aber seit kurzem sind mir doch zwei Titel aufgefallen, die ich mir dann auch zugelegt habe. Zum einen Unreal 2 und zum anderen Command & Conquer Generals.

unreal2k

Unreal 2 stellt von der Atmosphäre und Grafik so ziemlich alles in den Schatten, was ich bisher gesehen habe (nicht zuletzt Quake 3) und C&C Generals ist so wie C&C immer hätte sein sollen! Nach Jahren voller langweiliger Sequels und fehlender Neuerungen endlich mal wieder 2 echte Hammer. Also liebe Mütter, falls eure Söhne bald Geburtstag haben Highend-PCs schon besitzen: Bei den beiden Spielen kann man blind zuschlagen.

So, wieder ein Jahr um und bald ist auch schon wieder Weihnachten (2004). Und dieses Jahr? Tja, Halflife 2 ist immer noch nicht da, Doom 3 ist irgendwie zu dunkel … aber auch heuer gibt’s ein Highlight. Unreal Tournament 2004. Edle Grafik und erstklassige Multiplayer-Action. Kaufen!

Viel Spaß beim Zocken wünscht  Q –

… auch wenn es mal ein „Offline-Hardware“ – Spiel wie Tabu, Risiko oder Doko ist:)