Sonntag, 19 Februar 2012 00:00

Grundlagen der Epidemiologie

geschrieben von

1.) Was ist Epidemiologie? Welche Systematisierung (z.B. Bereiche, methodisch) lässt sich treffen? Welche spezifischen Ziele verfolgt die Epidemiologie?

Definition:

Die Epidemiologie (von griech. epi „auf, über“, demos „Volk“, logos „Lehre“, ursprünglich: "Seuchenkunde") ist jene wissenschaftliche Disziplin, die sich mit den Ursachen und Folgen sowie der Verbreitung von gesundheitsbezogenen Zuständen und Ereignissen in Populationen beschäftigt. Die Epidemiologie untersucht somit jene Faktoren, die zu Gesundheit und Krankheit von Individuen und Populationen beitragen. (Quelle: Wikipedia)

Ziele der Epidemiologie:

a) Identifizierung der Ursachen  einer Erkrankung und ihrer Risikofaktoren - Faktoren, die das Risiko einer Person erhöhen, an der Krankheit zu erkranken

b) Das Ausmaß und die Häufigkeit von Erkrankungen in der Bevölkerung feststellen

c) Untersuchung der „natural history“ ( des unbeeinflussten Verlaufs) und der Prognose von Erkrankungen

d) Evaluation neuer präventiver und therapeutischer Ansätze und neuer Wege in der Gesundheitsversorgung

e) Schaffung von Grundlagen für politische und gesellschaftliche  (auch regulatorische)  Entscheidungen, z.B. für Umweltprobleme

Formen der Epidemiologie:

 

Grundsätzlich unterscheidet man zwischen:

a)      deskriptiver Epidemiologie

b)      analytischer Epidemiologie 

Thematische Unterscheidung:

a)      Umweltepidemiologie

b)      Berufsepidemiologie

c)      Pharmakoepidemiologie

d)     Ernährungsepidemiologie

e)      Sozialepidemiologie

f)       Altersepidemiologie

Spezielle Epidemiologien:

a)      Krebsepidemiologie

b)      Herz-Kreislaufepidemiologie

c)      Infektionsepidemiologie

d)     Epidemiologie allergischer Erkrankungen

e)      Epidemiologie von Stoffwechselerkrankungen

f)       Unfallepidemiologie

2. Was bedeuten die Begriffe Morbidität, Mortalität, Inzidenz und Prävalenz? Beispiele und Unterschiede der jeweiligen Raten.

Morbidität:

Die Morbidität, die Krankheitsstatistik, von morbidus – lateinisch für krank, ist ein Begriff der Epidemiologie und beschreibt die Anzahl der Erkrankungen einer Gesamtbevölkerung in einem bestimmten Zeitraum (Erkrankte/100 000 EW). Mit Hilfe der Morbidität lässt sich die Wahrscheinlichkeit der Erkrankung eines Individuums innerhalb einer Population abschätzen. Dabei unterscheiden die Prävalenzrate die Anzahl aller erkrankten Individuen und die Inzidenzrate die Anzahl der Neuerkrankungen. (Quelle: pflegewiki)

Prävalenz:

Prävalenz = die Zahl der Personen mit einer bestimmten Krankheit

Prävalenzrate = Zahl der Personen mit einer bestimmten Krankheit bezogen auf die Gesamtzahl der Personen

Die Prävalenzrate wird so berechnet:

P= (Zahl der kranken Personen an einem Zeitpunkt/Gesamtzahl der Personen zu diesem Zeitpunkt) * 100.000

Beispiele:

25% aller Deutschen haben Rückenschmerzen (2001)

5% aller Kinder unter 15 Jahren leiden an einer Allergie,

in Mainz, 2003

Inzidenz:

Inzidenz = Zahl der neu erkrankten Personen mit einer bestimmten Krankheit in einem definierten Zeitraum

Inzidenzrate (=Neuerkrankungsrate) = Zahl der Neuerkrankungen im Verhältnis zur Gesamtzahl der Personen, die unter Risiko stehen

Die Inzidenzrate wird so berechnet:

I=(Zahl der Neuerkrankten in einem Jahr/Zahl der Personen unter Risiko in diesem Jahr) * 100.000

Beispiel:

Im Jahre 2003 sind in Deutschland etwa 20 000 Frauen an Brustkrebs erkrankt.

Die Inzidenzrate betrug somit etwa 20 000 / 40 Mio.

Mortalität:

Mortalität = Zahl der Verstorbenen

Mortalitätsrate = Zahl der Verstorbenen bezogen auf alle Personen unter Risiko

Man unterscheidet:

a)      alterspezifische Mortalitätsrate

b)      krankheitsspezifische Mortalitätsrate

Beispiel: 

  • Sterberate an  Lungenkrebs
  • Sterberate an Lungenkrebs für Männer zwischen 50 und 69 Jahren

3. Was meint „Population unter Risiko“, was sind „Personenjahre“?

Personen unter Risiko:

Der für eine Krankheit empfängliche Anteil einer Population wird auch "Population unter Risiko“ (Risikopopulation/exponierte Population) bezeichnet. So können etwa Arbeitsunfälle nur bei Personen auftreten, die im Arbeitsleben stehen.

Personenjahre:

Die "Population unter Risiko ist genau genommen die Summe der einzelnen Zeitabfolgen, die jede einzelne Person unter einer Exposition (=Risiko) verbracht hat (z.B. Summe der Personenjahre, wenn 1 Jahr, dann = Zahl der Personen).

Dies bedeutet, dass zur Bestimmung der Inzidenz eigentlich mindestens zwei Untersuchungen

nötig wären: In einem ersten Schritt müssten die Fälle, welche die zu untersuchende

Krankheit bereits haben, aus der Untersuchung ausgeschlossen werden. Sie können weder im

Zähler noch im Nenner eingeschlossen sein, weil dort nur Personen aufscheinen dürfen, die

die Krankheit bekommen können. Dann müsste in einer Beobachtungsperiode festgestellt werden, wie viele wirklich neue Fälle auftreten. Es dürfen nur neue Fälle gezählt werden, die zur beobachteten Bevölkerung gehören. Bei großen Populationen werden die Inzidenzfälle nicht aus der Population unter Beobachtung entfernt -> da der dadurch verursachte Fehler nur im Dezimalbereich liegt und daher vernachlässigbar ist. (Quelle: Meduni Wien)

4. Nennen Sie einige typische Fragestellungen der Epidemiologie! Was kann Vergleiche in der Epidemiologie beeinflussen?

Typische Fragestellungen der Epidemiologie:

 

  • Wie viele Personen sterben jährlich an Brustkrebs? Wie viele erkranken? (deskriptiv)
  • Sind Herzinfarkte bei Männern in Süddeutschland häufiger als in Norddeutschland?
  • Gibt es erhöhte Raten an Schilddrüsenkrebs durch den Kernkraftwerksunfall in Tschernobyl?
  • Wie lange überleben Patienten mit Diabetes im Durchschnitt nach der Diagnosestellung? (diagnostisch)
  • Was bewirkt das Krebsfrüherkennungsprogramm? (Wird die Mortalität an Krebs dadurch gesenkt?)

Was kann Vergleiche in der Epidemiologie beeinflussen?

Die Unterschiede zwischen zwei Populationen können Vergleiche beeinflussen. Diese Unterschiede können sein:

-          Unterschiedliche Altersverteilung

-          Unterschiedliche Registrierung

-          Unterschiede in der Diagnostik

-          Genetische Unterschiede zwischen Populationen, usw.

5) Skizzieren Sie die Entdeckungen von John Snow und die weiteren Folgen seiner Entdeckung.

Geschichte:  Dr. John Snow (19 Jahrhundert) machte als erstes Aufzeichnungen über die Lage der Haushalte und korrelierte dies mit der Anzahl der Choleratoten. Er bemerkte eine Assoziation zwischen der Quelle des Trinkwassers und der Zahl der Todesfälle. Nach Vergleich der Mortalitätsrate pro 1000 Einwohner in verschiedenen Londoner Distrikten entdeckte er eine Häufung des Todes naher zweier Wasserversorgungsstellen. => Schluss, dass kontaminiertes Wasser als Hauptursache der Epidemie in betracht gezogen werden könnte.

Weiterer Wegbereiter der Epidemiologie war Semmelweis, dem Unterschiede hoher Raten an Kindbettfieber bzw. bei angehenden Geburtshelfern im Vergleich mit Hebammenschülerinnen auffiel. ER erkannte auch, dass bei sogenannten Gassengeburten, bei denen keine gynäkologischen Untersuchungen vor der Geburt stattfinden konnten, eine niedriger Sterblichkeit aufwiesen. Die geniale Idee, dass sich die Ärztevor der Geburtshilfe mit Chlorkalk die Hände waschen sollten, verringerte deutlich die Kindersterblichkeit der „Arztabteilung“, sodass sie sich auf das Niveau der anderen Abteilungen einpendelte.

Entwicklung der Epidem. in D im 19 Jahrh. eng mit Sozialmedizin verbunden. Statistik nimmt immer größeren Stellenwert und Einfluss auf die Epidemiologie.

Schon früh wurden Zusammenhänge zwischen Gesundheit und Armut erkannt (Beginn 20. Jahrhundert)

Erst mitte der 60ger jahre begann sich Fach der Sozialmedizin mit dem Kern Epidemiologie zumindest in Deutschland zu etablieren.=> in der Zeit auch Gründung des ersten Krebsregisters in D. Traditionelle Anwendungsgebiete der Epidemiologie sind neben der Krebsepidemiologie die Herz-Kreislauf-, die Umweltepidemiologie und die Epidemiologie arbeitsbedingter Gesund-heitsstörungen. Hier haben auch die großen epidemiologischen Studien nach dem 2. Welt-krieg im Ausland und mit Verzögerung in Deutschland ihren Ausgangspunkt.

In den letzten 20 Jahren hat sich die Epidemiologie zahlreiche neue Gebiete erschlossen. Da-zu gehören die Infektions-, Ernährungs- und genetische Epidemiologie oder die Versorgungs- und Evaluationsforschung. Durch die Etablierung von Public Health zu des-sen zentralen Methoden auch die Epidemiologie zählt, haben sich viele Anknüpfungspunkte an andere Disziplinen ergeben. Zu den aktuellen Fortschritten der Epidemiologie in Deutschland gehört die Herausgabe der ersten Gesundheitsberichte für Deutschland, die Differenzie-rung in Schwerpunkt- und Einzelthemen und die Durchführung eines Bundesgesundheitssurvey (BGS) für Erwachsene im Alter zwi-schen 18 und 79 Jahren, die Folgeuntersuchung anhand einer telefonischen Befragung und die Ausweitung auf einen Kinder- und Jugendsurvey

(Es bezieht sich zwar vieles auf Deutschland, aber ich denk mal, dass man das auch generell sagen kann)

Beispiele Wichtiger epidemiologischer Studien: SNOW – Cholera 1850 in London;  Kohortenstudie Horoshima  (Wirkung der Strahlung auf Krebsraten, HK – Erkrankungen, Demenz..), The British Doctors Study von Doll und Hill (Rauchverhalten => Lungenkrebs)

6.) Wie und wozu werden Altersstandardisierungen durchgeführt?  Welcher Unterschied liegt zwischen direkter und indirekter Standardisierung vor.

Der Vergleich von Maßzahlen der Morbidität und Mortalität, die in der Regel stark alters- und geschlechtsabhängig sind, ist erschwert oder gar unmöglich, wenn zwei Populationen unter-schiedliche Alters- und Geschlechtsstrukturen aufweisen, wenn sich eine Population im zeitlichen Verlauf schnell ändert oder wenn die altersspezifischen Raten sehr unterschiedliche Entwicklungen aufweisen => Standardisierung (Herausrechnen des Alters) notwendig um Vergleich zwischen zwei unterschiedlich Strukturen machen zu können.

Beispiel direkt/indirekt am alter (geht auch mit Geschlecht)

Direkte Standardisierung: Gewichtung der alterspezifischen Raten mit der Alterstruktur einer STANDARDPOPULATION (z.B.: Welt, EU, D).

Durchführung: Der Anteil der i-ten von insgesamt k Altersklassen (z.B. 0-44, 45-64, 65+ ) an der Gesamtbevölkerung wird als wij* bezeichnet. Die atersspezifischen Morbiditäts- oder Mortalitätsraten rij der Vergleichspopulation(en) werden nun mit der Alters- und Geschlechtsstruktur der Standardbevölkerung gewichtet.

         rdir.stand = Σi=1,2; j=1, ... k wij* • rij

Eine Erklärungsversuch in eigenen Worten:

=> berechne die Mortalitätsrate einer Population für eine bestimmte Altersklasse (0-44), beziehe diese auf eine festgelegte Standardpopulation, mit der jeder arbeitet (EU, Welt..) und normiere auf 100 000 Personen ( oder 1 Mio in Abhängigkeit der Anzahl der Fälle),damit man die Mortalitätsrate in eine Maßzahl pro 100 000 angeben kann.

Mache das für alle Altersklassen, zähle diese zusammen und erhalte die SMR oder standardisierte Mortalitätsrate  bezogen auf 100 000. Wenn ich dasselbe für eine andere Population mache, kann ich beide Populationen vergleichen. => so werden quasi zwei Populationen direkt über eine Standardpopulation „gemittelt = gewichtet“ und so miteinander verglichen

Indirekte Standardisierung: Häufig liegen die Raten rij der Vergleichspopulation jedoch nicht vor (z.B. Mortalitätsraten nach Gemeinden) oder sie sind wegen kleiner absoluter Fallzahlen stark zufälligen Einflüssen unterworfen. Für diese Situation bietet sich die – häufiger verwendete - indirekte Standardisierung an. Dabei werden auf die bekannte Altersstruktur Wij (absolut) der Vergleichspopulation die altersspezifischen Raten der Standardpopulation rij* angewendet.

rindir.stand = Σi=1,2; j=1, ... k Wij • rij*

Damit ergeben sich die Fallzahlen, die zu erwarten gewesen wären, wenn die Morbiditäts- oder Mortalitätsverhältnisse der Standardbevölkerung in der Studienpopulation wirksam gewesen wären (= E, wie ‚expected‘). Diese lassen sich dann mit der beobachten Fallzahl (= O wie ‚observed‘) vergleichen. Der Quotient aus O und E, auch SMR genannt, gibt an, wie stark die Raten von der des Standards abweichen. Der Vorteil der indirekten Standardisierung liegt darin, dass nur die altersspezifischen Raten der Standardbevölkerung, die Struktur der Vergleichspopulation und die Gesamtzahl der Ereignisse in der Vergleichspopulation gebraucht werden. 

Eigene Worte ohne Gewähr:

=> prinzipiell gleich wie direkt, mit dem Unterschied, dass ich keine zwei Populationen über die Standardpopulation vergleiche, sondern eine Population mit einer fiktiven Standardpopulation, aus der man die erwarteten Fälle berechnen konnte. Diese „normalen“ Fälle oder erwarteten, werden mit den tatsächlichen Fällen verglichen.

Risiko: gibt die Wahrscheinlichkeit p an, bei der man unter Exposition erkranken könnte!

Absolutes Risiko:

=> Inzidenz, also die Zahl der Neuerkrankungen pro Zeiteinheit, Das absolute Risiko ist meist wenig aussagefähig, da häufig die Risiken absolut gesehen sehr gering sind. Selbst unter starken Rauchern erkranken bei weitem nicht alle an Lungenkrebs. Das Risiko wird daher erst in einem Vergleich mehrerer Risiken interpretierbar. Dazu bietet sich die Risi-kodifferenz und das Risikoverhältnis (relatives Risiko) an.

Relatives Risiko:

also das Risiko für eine Erkrankung bei Exposition geteilt durch das Risiko( bei Nicht-Exponierten oder

RR = P1/ P0

=> zentrale Maß in der Epidemiologie zur Bewertung möglicher Krankheitsursachen. Die Deutung des relativen Risikos ergibt sich wie folgt:

RR = 1: Das Risiko der Exponierten ist gleich groß wie das Risiko der Nicht-Exponierten (kein Zusammenhang)

RR > 1: Das Risiko der Exponierten ist größer als das Risiko der Nicht-Exponierten (posi-tiver Zusammenhang, Exposition möglicherweise krankheitsverursachend bzw. krankheitsfördernd)

RR < 1: Das Risiko der Exponierten ist kleiner als das Risiko der Nicht-Exponierten (ne-gativer Zusammenhang, Exposition möglicherweise protektiv)

Da sich das Risiko definitionsgemäß über die Zahl der Neuerkrankungen berechnet, kann es nur aus prospektiven Kohorten- bzw. Längsschnittstudien berechnet werden, in dem eine Studiengruppe unter Exposition und eine Kontrollgruppe ohne Exposition auf das Auftreten einer oder mehrerer Krankheiten beobachtet werden.

Tabelle: Berechnung des relativen Risikos in einer Kohortenstudie

Erkrankung

Inzidenz der

Exposition

ja

nein

gesamt

Erkrankung

ja

a

b

a + b

a / (a + b)

nein

c

d

c + d

c / (c + d)

gesamt

a + c

b + d

a + b + c + d

                 

Das relative Risiko bei Vorliegen einer Exposition berechnet sich dann als

Relatives Risiko (RR) = a / (a + b)

c / (c + d)

ODDS RATIO:

Näherungswert für realtives Risiko,

Bei einer Fall-Kontroll-Studie sind die Inzidenzen jedoch nicht bekannt, da von Erkrankten (Fällen) und Nicht-Erkrankten (Kontrollen) ausgegangen wird. Dennoch lässt sich unter bestimmten Bedingungen auch in einer Fall-Kontroll-Studie ein Näherungswert für das relative Risiko berechnen.

In einer Fall-Kontroll-Studie lässt sich bei Fällen und Kontrollen retrospektiv der Anteil der exponierten Personen bestimmen und miteinander in Beziehung setzen. Dazu verwenden wir Odds (Chancen). Die Chance für ein bestimmtes Ereignis ist allgemein der Quotient aus der Zahl der Möglichkeiten für ein bestimmtes Ereignis und der Zahl der Möglichkeiten für das Ausbleiben des Ereignisses.

In Fall-Kontroll-Studie können wir sowohl für die Fälle als auch für die Kontrollen die Odds berechnen, dass eine Exposition vorlag. Für Fälle ist die Odds durch den Quotienten a/c gegeben, nämlich die Zahl der Fälle mit Exposition geteilt durch die Zahl der Fälle ohne Exposition. Für die Kontrollen ergibt sich analog die Chance als b/d

Tabelle: Berechung des Odds Ration in einer Fall-Kontroll-Studie

Erkrankung

Exposition /Risikofaktor

ja

nein

gesamt

ja

a

b

a + b

nein

c

d

c + d

gesamt

a + c

b + d

a + b + c + d

Als Zusammenhangsmaß zwischen Erkrankung und Exposition bietet sich nun das Verhältnis (engl. ratio) der beiden Chancen an, die sogenannte Odds Ratio. Sie ist definiert als das Verhältnis der Odds, dass Fälle exponiert waren, zu den Odds, dass die Kontrollen exponiert waren. Sie berechnet sich danach als

Odds Ratio (OR) = a/c = a*d

b/d     b*c

Die Odds-Ratio ist also der Quotient des Produkts der Werte aus der Hauptdiagonalen und der Nebendiagonalen und wird deshalb auch als Kreuzproduktverhältnis bezeichnet.

Die Odds Ratio, die im übrigen auch in prospektiven Studien berechnet werden kann, wird ähnlich wie das relative Risiko interpretiert. Ohne einen Zusammenhang zwischen Exposition und Krankheit wird sich in Fall-Kontroll-Studien eine OR von ungefähr 1 ergeben. Je stärker die Exposition positiv mit der Krankheit assoziiert ist, also ein Risiko(-faktor) darstellt, desto größer ist der Quotient der beiden Chancen. Ein Wert kleiner 1 deutet dagegen auf einen protektiven Einfluss der Exposition hin.

Attributales Risiko:

Das relative Risiko und das Odds Ratio beschreiben das Risikoverhältnis zwischen Exponier-ten und Nichtexponierten und damit etwas über die Stärke des Zusammenhangs zwischen Exposition und Krankheit. Das attributable Risiko gibt dagegen, an, welcher Anteil einer Krankheit auf die Exposition zurückzuführen ist und damit bei Verringerung oder Eliminie-rung des Risikos theoretisch vermieden werden könnte. Dabei kann unterschieden werden zwischen dem

attributablen Risiko unter den Exponierten: die Krankheitsrate unter den Exponierten, die auf die Exposition zurückgeführt werden kann und dem

bevölkerungsbezogenen attributablen Risiko: die Krankheitsrate in der Gesamtbevölke-rung, die auf die Exposition zurückgeführt werden kann

Ausgedrückt durch Inzidenzen sind die beiden attributablen Risiken definiert als

attributables Risiko unter den Exponierten: Inzidenz der Exponierten – Inzidenz der Nichtexponierten

bevölkerungsbezogenes attributables Risiko: Inzidenz in der Gesamtpopulation – Inzidenz der Nichtexponierten

Kausalität:

Ist Exposition wirklich der Grund für die Krankheit? Also RR/OR >1 Für die Beurteilung der Kausalität gibt es Kriterien nach Bradford Hill

1)      Stärke der Beziehung

2)      Konsistenz der Beziehung

3)      Spezifität des Effekts

4)      Zeitliche Sequenz

5)      Dosis-Wirkungs-Beziehung

6)      Biologische Plausibilität

7)      Kohärenz

8)      Entzug der Exposition

9)      Alternative Erklärungen

Sind alle angeführten Punkte  1-8 durchdacht und kann man die gewonnen Daten nicht mit diesen Punkten erklären bleiben vor der wirklichen Tatsache der Kausalität  noch alternativen Erklärungen  abklären, die da wären

1.)    Zufall => mit der Statistik sollte man jeglichen Zufall in den Griff bekommen, Achtung auch da Fehler wie z.B. zu kleine Stichprobe….

2.)    Bias

7.) Verzerrungsmöglichkeiten

Epidemiologische Studien können durch eine Reihe systematischer Fehler zu verzerrten Er-gebnissen führen. Bei der Planung von Studien muss daher besondere Sorgfalt auf die Identifizierung und Eliminierung möglicher Verzerrungsquellen geachtet. In der Epidemiologie werden diese Bias genannt, worunter systematische Abweichungen von Messungen oder Schlussfolgerungen vom wahren Sachverhalt verstanden werden. Diese können ihre Ursachen im Studiendesign, der Datenerhebung und –auswertung, der Ergebnisinterpretation oder der Publikation der Ergebnisse haben.

Es können verschiedene Formen des Bias unterschieden werden:

Detection/diagnosis bias: Fehler bei der Erhebung der Daten oder der Diagnose bzw. Verifikation von Fällen gegenüber Kontrollen, z.B. durch Anwendung eines diagnosti-schen Tests bei Krankenhausfällen und nicht bei Bevölkerungskontrollen.

Information bias: Unterschiedliche Genauigkeit in der Messung und Erhebung von Da-ten in verschiedenen Gruppen, z.B. intensivere Diagnostik in der Studiengruppe als bei Kontrollen.

Observer bias: Verzerrung durch interpersonelle (zwischen mehreren Personen) oder intrapersonelle (zu verschiedenen Zeitpunkten bei der gleichen Person) Variation in der Beobachtung oder Erhebung von Daten, z.B. in der Bewertung diagnostischer Verfahren wie Röntgenaufnahmen oder pathologischen Befunden.

Interviewer bias: Verzerrung, die durch die Person des Interviewers und sein Auftreten hervorgerufen wird.

Recall bias: Verzerrung durch unterschiedliche Genauigkeit bei der retrospektiven Erhe-bung von Information aus der Erinnerung, etwa zwischen Eltern von leukämiekranken Kindern und Eltern von Kontrollen.

Reporting bias: Verzerrung durch selektive Nicht-Berichterstattung bestimmter Ereig-nisse wie sexuell übertragbare Krankheiten oder Alkoholmissbrauch.

Response bias: systematischer Fehler durch die Antworten von Personen, die freiwillig oder nicht an einer Erhebung teilnehmen, z.B. bei einer Volkszählung zwischen Befür-wortern und Gegner einer derartigen Erhebung.

Selektionsbias: Verzerrung aufgrund der Unterschiede zwischen Teilnehmern und Nicht-teilnehmern an einer Studie, z.B. unterscheiden sich Teilnehmer an Früherkennungsun-tersuchungen in vielen sozio-ökonomischen Merkmalen von Nichtteilnehmern.

Stichprobenbias: Verzerrung durch Wahl eines Stichprobenverfahrens, bei dem nicht jedes Element der Grundgesamtheit die gleiche Wahrscheinlichkeit hat gezogen zu wer-den oder bei dem diese Wahrscheinlichkeit nicht bekannt ist. Das ist offensichtlich bei Straßenumfragen; aber auch der Fall, wenn bei Haushaltsbefragungen die Auswahl der Haushalte über die Bewohner erfolgt und dann große Haushalte eine größere Ziehungs-wahrschenlichkit als kleinere Haushalte bestzen.

Length sampling bias: Verzerrung durch überproportionalen Anteil von langen Fällen in einer Studie, z.B. bei symptomloser Früherkennung oder bei Umfragen in Vertrags-arztpraxen, bei denen Stammpatienten eher ausgewählt werden als neue Patienten bzw. Vertretungsfälle.

Lead time bias: Verzerrung durch unterschiedlich lange Beobachtungszeiten, z.B. zwi-schen Karzinomen, die in der Früherkennung oder nach Beschwerden erkannt werden, auch wenn die Behandlung keinen Einfluss auf den Verlauf hat.

Withdrawal bias: Unterschiede, die durch nicht neutrale Ausfälle aus einer Studie her-vorgerufen werden, z.B. wenn aus einer Längsschnittstudie primär chronisch kranke Per-sonen aufgrund ihres Gesundheitszustandes ausscheiden.

Vor allem aus der Sozialwissenschaft sind weitere Verzerrungsmöglichkeiten bekannt. Für die Epidemiologie seien hier die beiden wichtigsten genannt. Im übrigen sei auf Lehrbücher der Medizinischen Soziologie und der empirischen Sozialforschung verwiesen.

Healthy worker effect: Positive Selektion in bestimmten Berufen, weil die gesundheit-lich angeschlagenen aus der Tätigkeit oder aus dem Berufsleben insgesamt ausscheiden bzw. schon bei der Rekrutierung gesundheitliche Aspekte eine Rolle spielen. Das kann z.B. in Untersuchungen bei Pflegekräften aufgrund des verbreiteten Burn-out-Syndrims der Fall sein

Hawthorne-Effekt: Die Kenntnis an einer Untersuchung teilzunehmen, kann für sich ge-nommen schon das übliche Verhalten verändern, etwa im Hinblick auf sozial gewünsch-tes Verhalten oder weil sich Probanden bei physiologischen Tests (Hören, Se-hen,Konzentrationn) mehr als gewohnt anstrengen.

8.)    Confounder

Ein Confounder ist eine Variable, die den beobachteten Zusammenhang zwischen einer unabhängigen Größe (in Abb. 9.1: Kaffeekonsum als Risikofaktor) und Zielgröße (hier: koronare Herzkrankheit) beeinflusst, da sie mit beiden Größen in Zusammenhang steht: Rauchen erhöht das Krankheitsrisiko und es gibt gleichzeitig eine positive Korrelation zwischen Rauchen und Kaffeetrinken.

Ein Confounder ist also ein Drittfaktor, der

(1) ein Risikofaktor für die Studienkrankheit und

(2) mit der zu untersuchenden Exposition assoziiert ist, ohne nur unmittelbare Konsequenz dieser Exposition zu sein.

Relevante Counfounder in der Epidemiologie sind jedoch in der Regel:

Alter

Geschlecht

Rasse, Nationalität

Soziale Schicht

Komorbidität

Ernährung

Gesundheitsverhalten

Möglichkeiten der Behandlung von Counfoundern sind

Restriktion, z.B. werden nur Personen einer bestimmten Altersgruppe untersucht;

Stratifizierung: Der Zusammenhang zwischen Einfluss- und Zielgröße wird für die ein-zelnen Ausprägungen eines Confounders separat untersucht (vgl. in Kap. 10);

Matching (individuell oder gruppenweise): Bei der Wahl der Studien- und Kontrollgrup-pe und der Rekrutierung der Studienteilnehmer wird auf gleiche Ausprägung der Con-founder bei individuellen Beobachtungspaaren oder beiden Gruppen geachtet;

Standardisierung: Wird meist nach Alter und Geschlecht vorgenommen, kann aber auch unter Einbeziehung anderer Merkmale erfolgen. Dabei werden gewisse Kennzahlen einer Untersuchungsgruppe auf eine hinsichtlich relevanter Merkmale bekannte Standardpopu-lation umgerechnet und damit vergleichbar gemacht (vgl. Kapitel 6 zur Standardisierung epidemiologischer Kennzahlen);

Multivariate statistische Verfahren. Diese untersuchen den Zusammenhang zwischen potenziellen Einfluss- und Zielgrößen bei gleichzeitiger Berücksichtung von Confoun-dern

9) Phasen der Medikamentenentwicklung

Grundsätzlich dauert die Entwicklung eines Medikamentes bis zu 15 Jahren und kostet mehrere hunder Millionen Euro.


Target-Suche

Arzneimittel wirken im Organismus auf bestimmte Zielmoleküle, sogenannte Targets, die an Krankheitsprozessen beteiligt sind. Die Entwicklung eines Arzneimittels beginnt daher mit der detaillierten Aufklärung molekularer Vorgänge auf der Suche nach möglichen Targets.
Im Forschungsbereich werden beispielsweise im Rahmen von Kooperationsprojekten, Zellen aus gesundem und erkranktem Gewebe hinsichtlich der Genaktivität verglichen. Unterschiede deuten auf potenzielle Targets für die Therapie hin.

Wirkstoff-Suche

Ist ein mögliches Target definiert, auf das ein Arzneimittelwirkstoff wirken soll, werden mit Hilfe von Computersimulation (Virtual Screening) und/oder Screening-Robotern aus einem Substanz-Pool potenziell interessante Substanzen ermittelt.
Mit Hilfe von High-Throughput-Screening (HTS) können täglich bis zu 100.000 Substanzen bezüglich ihrer Wirkung auf das Target automatisiert getestet werden. Hierbei dienen kleine Kunststoffplatten mit 384 oder 1.536 Vertiefungen als Verbund winziger Reaktionsgefäße. In diesen werden das Zielmolekül, die zu untersuchende Verbindung sowie weitere Komponenten nach bestimmten Rezepturen zusammengebracht. Bindet eine Substanz an das Zielmolekül, verfärbt sich je nach Testverfahren die Mixtur, oder sie fängt an zu leuchten.
Selektierte Substanzen werden hinsichtlich einer Verwendung als Wirkstoff chemisch optimiert und in eine geeignete Darreichungsform gebracht.

Phase 0  (Präklinische Phase)

Methode: Tierexperiment, Laborversuche

Ziele: Kenntnisgewinn über

  • Toxizität  

In der präklinischen Phase werden nach den Richtlinien der "Guten Laborpraxis" (GLP) toxikologische Daten erhoben.

  • Zusammenhang von Körpergewicht und Dosierung

Bei einem Wirkstoffkandidaten müssen vor allem die Wirksamkeit, Sicherheit und geeignete Dosierung im lebenden Organismus ermittelt werden. Die pharmakologischen Charakteristika wie Aufnahme und Verteilung im Körper, Pharmakokinetik, Abbau und Ausscheidung des potenziellen Wirkstoffes werden untersucht.

  • Veränderung von klinischen Parametern
  • Einfluss auf Fertilität und Organfunktionen
  • Kanzerogenität
  • Allgemeine, unerwünschte Effekte

Die präklinische Phase kann vier bis sechs Jahre nach den ersten Laborversuchen abgeschlossen sein. Im Falle positiver Ergebnisse schließen sich die klinischen Phasen an.

Klinische Phasen I-III

Phase I

Bevor ein Arzneimittel in Verkehr gebracht werden darf, muss es von der europäischen Zulassungsbehörde EMEA zugelassen werden. Hierzu sind neben den Daten zur pharmazeutischen Qualität und Toxikologie des Medikaments auch die Ergebnisse klinischer Studien (Phase I, II, III) einzureichen. Wichtig sind hierbei besonders Angaben zur nachweislichen Wirksamkeit, Verträglichkeit, Verstoffwechselung, zu möglichen Nebenwirkungen sowie der optimalen Dosierung des Medikaments beim Menschen. Vor der Behandlung wird die DLT (Dosis Limitierende Toxizität) festgestellt.

Methode: Erstanwendung am Menschen (20-50 freiwillige, gesunde ProbandInnen)

Ziele: Kenntnisgewinn über

  • Pharmakodynamik/-kinetik
  • MTD (Maximum Tolerated Dose)
  • Wirksame Dosis
  • Klinische Parameter

 

Phase II

Methode: Beginn der therapeutischen Anwendung an PatientInnen mit enger Indikation (100-500) als Vorprüfung (noch keine Wirksamkeitsprüfung!)

Ziele: Kenntnisgewinn über

  • Pharmakologische Effekte
  • Wirkung (Response)
  • Dosierung (-findung)
  • Verträglichkeit

Phase III („Klinische Studie“)

Methode: Therapeutische Anwendung an PatientInnen mit anvisierter Indikation                          (1000-5000)

Ziele:

  • Wirksamkeitsnachweis
  • Vergleich mit Standardtherapie
  • Verträglichkeit
  • Langzeitbehandlung
  • Besonderheit in bestimmten PatientInnengruppen
  • Bei Erfolg Zulassung

Wozu Fallzahlplanungen

Ziel: Nachweis eines Unterschieds zwischen Therapieformen

Die Fallzahlplanung wird vor der Durchführung der Studie durchgeführt und verlangt eine Aufnahme ins Studienprotokoll (vor der Studie erstellt, regelt sie alle Einzelheiten)

Wahrscheinlichkeit des Nachweises (Power 1 −ß) abhängig von:

• wahrer Unterschied μ1 − μ2 zwischen den Therapien

• Fallzahl N

Die Gruppengröße wird nicht ”dem Zufall überlassen”, da:

• Ethische Komponente eine unnötige Belastung von ProbandInnen darstellt.

• Ökonomische Komponente eine unnötige Belastung der GeldgeberInnen bedeutet.

Wieso und wann braucht es bei epidemiologischen Studien die Ethikkommission?

Ethikkommissionen sind Gremien die mit erfahrenen Wissenschaftlern besetzt sind, für viele Studien ist es notwendig, dass vor der Durchführung einer Studie die Zustimmung einer Ethikkommission eingeholt wird. Wenngleich nicht für alle Studie die Zustimmung einer EK notwendig ist, ist es sinnvoll vorher immer eine EK zu Rate zu ziehen.

Ethikkommissionen gehen hauptsächlich zurück auf die revidierte Deklaration von Helsinki des Weltärztebundes von 1975. Übergreifendes Ziel ist die Beurteilung von Forschungsvorhaben, die an Lebewesen durchgeführt werden, aus ethischer, rechtlicher und sozialer Sicht sowie der Schutz des Individuums vor den Folgen der (klinischen) Forschung am Lebewesen.

Mitglieder sind in der Regel Mediziner und Naturwissenschaftler, jedoch ist bei der Besetzung einer Ethikkommission die Aufnahme von Juristen und Theologen zwingend.

Für die Beurteilung von Forschungsvorhaben gibt es Checklisten, an Hand derer geprüft wird ob Studien ethisch vertretbar sind.

9) Primäre und Sekundäre Endpunkte

Als primärer Endpunkt (lat. primus = „der Erste“) wird in klinischen Studien das primäre (erstrangige) Ziel der Studie bezeichnet. Generell sind klinische Studien Experimente am Menschen. Sie unterliegen deshalb strengen ethischen Richtlinien und Qualitätsanforderungen.

Es ist das allgemeine Ergebnis der Studie, das anhand eines klinischen Prüfplans beurteilt wird. Am primären Endpunkt kann festgestellt werden, ob die angewendeten Maßnahmen (im Allgemeinen eine medizinische Behandlung) erfolgreich waren. Beispielsweise kann die Überlebensrate oder das Risiko eines Rückfalls (Rezidiv) als primärer Endpunkt definiert werden. In der Studie werden dann diese Kriterien bei der behandelten Gruppe mit der der Kontrollgruppe verglichen. Die primären Endpunkte müssen vor dem Beginn der Studie festgelegt werden. Die Erreichung des primären Endpunktes entscheidet über den Erfolg oder Misserfolg einer Studie.

O'Neill definiert den primären Endpunkt als:

„klinischen Endpunkt, der den Beweis liefert, der ausreicht um den Effekt einer Therapie klinisch vollständig so zu beschreiben, dass er den regulatorischen Ansprüchen für eine Therapie genügt.

Vor dem Beginn (a priori) einer klinischen Studie wird der primäre Endpunkt als das Hauptziel der Studie festgelegt. Wichtig ist dabei, dass möglichst „harte“, das heißt messbare und klar definierte Kriterien festgelegt werden. Harte Kriterien sind beispielsweise:

  • Remission (kompletter Rückgang aller Zeichen der Erkrankung)
  • Rezidiv (Wiederauftreten der Erkrankung)
  • Tod innerhalb von 30 Tagen nach der Intervention
  • Zeit bis zum Eintreten eines Herzinfarktes oder Tod

„Weiche“ Endpunkte, wie beispielsweise Lebensqualität oder Schmerzen, sind nicht quantifizierbare Größen. Für eine Festlegung als primärer Endpunkt sind sie nur sehr bedingt geeignet. Sie fließen gegebenenfalls in die sekundären Endpunkte mit ein.

Der primäre Endpunkt einer Studie kann dabei zusammen mit der genehmigenden Behörde (beispielsweise der FDA) festgelegt werden.

Surrogat-Marker

Surrogat-Marker sind Laborparameter, die am Patienten gemessen werden können. Beispiele hierfür sind: die Leukozytenzahl, der Blutdruck, die Knochendichte und vieles andere mehr. Die Werte von einem oder mehreren Surrogat-Markern können prinzipiell auch als "harte" (weil messbare) primäre Endpunkte gewählt werden. In diesem speziellen Fall spricht man dann auch von Surrogatendpunkt. Allerdings sind sie kein direkter Maßstab für den klinischen Nutzen oder Schaden des therapeutischen Eingriffes. In der Vergangenheit gab es mit Surrogatendpunkten mehrere Studien, die zu fatal falschen Schlüssen führten und die für die später behandelten Patienten zum Teil erheblich negative Auswirkungen hatten. Eine pharmakodynamische Wirkung ist kein Beweis für eine therapeutische Wirksamkeit.

Beispiele für Surrogatendpunkte mit – teilweise postulierten – Korrelationen sind:

  • Lipidsenker: Cholesterinwert -> Herzinfarkt
  • Antiarrhythmika: Arrhythmien -> Lebensverlängerung
  • HIV/AIDS: Viruslast -> Lebensqualität/-verlängerung
  • Osteoporose: Knochendichte -> Frakturen

Ein Beispiel für einen falsch gesetzten Surrogat-Marker als primären Endpunkt ist die Gabe von beta-Carotin an Raucher, zur Prävention von Lungenkrebs. Der primäre Endpunkt (das Anheben des erniedrigten Vitaminspiegels) wurde zwar erreicht, aber die Gabe führte auch zu einer Zunahme der Lungenkrebs-Mortalität.

Sekundärer Endpunkt

Neben dem primären Endpunkt werden üblicherweise auch ein oder meist mehrere sekundäre Endpunkte gesetzt. Gelegentlich auch tertiäre Endpunkte. Bezüglich der möglichen Nebenwirkungen der Maßnahmen werden auch Sicherheits-Endpunkte zum Schutz der Patienten gesetzt. Unter einem kombinierten Endpunkt schließlich versteht man eine Kombination aus mehreren einzelnen Kriterien, von denen eines oder mehrere erreicht sein müssen, um die Bestätigung einer Hypothese vornehmen zu können.

Beispiele für primäre Endpunkte

In einer Studie zur Therapie des rezidiven/refraktären chronisch lymphatischen Leukämie vom B-Zell-Typ (B-CLL) war der primäre Endpunkt das Ansprechen der PatientInnen (Remissionsraten) auf die Therapie. Der sekundäre Endpunkt waren progressionsfreies Überleben, Gesamtüberleben sowie Verträglichkeit und Sicherheit der Therapie.

In der ASCOT-Studie wurde die prophylaktische Wirkung des ACE-Hemmers Perindopril und des Calciumkanalblockers Amlodipin bei Bluthochdruckpatienten untersucht. Primärer Endpunkt war hierbei «nicht tödlicher Herzinfarkt und tödliche koronare Herzkrankheit». Sekundäre Endpunkte waren unter anderem «Mortalität für alle Todesursachen, die kardiovaskuläre Mortalität, tödlicher und nichttödlicher Schlaganfall und die Gesamtheit aller kardiovaskulären Ereignisse und Eingriffe». Tertiärer Endpunkt war die «Neumanifestation eines Diabetes».

Erreichen des Endpunktes

Wenn PatientInnen den primären Endpunkt einer Studie erreichen, so werden diese von der Studie ausgeschlossen, so wie dies auch dem Begriff Endpunkt entspricht.
In vielen klinischen Studien wird der primäre Endpunkt nicht erreicht. Dies ist aber keine Aussage bezüglich einer möglichen Unwirksamkeit des Medikamentes. Möglicherweise wurde das zu testende Medikament in einer falschen Dosierung oder Formulierung verabreicht.

In einigen Studien werden die sekundären Endpunkte, aber nicht der primäre Endpunkt erreicht. Auch der umgekehrte Fall kann eintreten.

10.) Zeigen Sie die Anforderungen an eine gut geplante Studie auf:

      Repräsentativ

       Kontrolliert

       Ungestört

       Vergleichbar

       Fair

       Relevant

       Eindeutig

       Erfolgreich

       Flexibel

       Ethisch

       Dokumentiert

Leitlinie 1: Ethik

Epidemiologische Untersuchungen müssen im Einklang mit ethischen Prinzipien durchgeführt werden und Menschenwürde sowie Menschenrechte respektieren

Empfehlung 1.1          Ethikkommission

Leitlinie 2: Forschungsfragen

Die Planung jeder epidemiologischen Studie erfordert explizite und operationalisierbare Fragestellungen, die spezifisch und so präzise wie möglich formuliert sein müssen

Empfehlung 2.1          Wenn in einer Studie Hypothesen konfirmatorisch geprüft werden sollen,            müssen diese vor Beginn der Studie           formuliert werden.

Leitlinie 3: Studienplan

Grundlage einer epidemiologischen Studie ist ein
detaillierter und verbindlicher Studienplan, in dem die
Studiencharakteristika schriftlich festgehalten werden

    • Fragestellung und Arbeitshypothesen
    • Studientyp
    • Studienbasis und Studienpopulation
    • Studienumfang und Begründung
    • Auswahl- und Rekrutierungsverfahren der Studienteilnehmer
    • Definition sowie das Mess- und Erhebungsverfahren für die          Zielvariable
    • Exposition und Risikofaktoren
    • Confounder und Effektmodifikation
    • Datenerfassung und Archivierungskonzeptionen
    • Auswertungsstrategie
    • Maßnahmen zur Qualitätssicherung
    • Datenschutz und Ethik
    • Zeitplan und Verantwortlichkeiten

Empfehlung 3.3          Bereits bei der Planung epidemiologischer Studien soll möglichen Verzerrungen (BIAS) der Ergebnisse entgegengewirkt werden

Empfehlung 3.4          Kontrolle von Selektionsverzerrungen (Nichtteilnahme und Nichtverfügbarkeit)

Empfehlung 3.5          Variablen präzise definieren und möglichst standardisiert operationalisieren

Empfehlung 3.7          Operationalisierungshandbuch

Empfehlung 3.8          Für die Auswertungsphase der Studie sind ausreichende zeitliche und personelle Ressourcen vorzunehmen

Leitlinie 4: Probenbanken

In vielen epidemiologischen Studien ist die Anlage einer biologischen Probenbank notwendig bzw. sinnvoll. Hierfür und für die aktuelle und vorgesehene Nutzung der Proben ist die dokumentierte Einwilligung aller Probanden erforderlich.

Leitlinie 5: Qualitätssicherung

Empfehlung 5.1          Bei Erhebung von Primärdaten: Pilotstudie

Empfehlung 5.2          Notwendige Verfahrensänderungen während der Erhebung müssen begründet, dokumentiert und allen Studienmitarbeitern mitgeteilt werden

Empfehlung 5.3          Schulung und Ausbildung

Empfehlung 5.4          Erhebungshandbuch

Leitlinie 6: Datenhaltung und -Dokumentation

Für die Erfassung und Haltung aller während der Studie erhobenen Daten sowie für die Aufbereitung, Plausibilitäts-prüfung, Kodierung und Bereitstellung der Daten ist vorab ein detailliertes Konzept zu erstellen.

Empfehlung 6.1          Zeitnahe Eingabe der Daten

Empfehlung 6.2          Rohdatensatz soll in unveränderter Form aufbewahrt werden.

Empfehlung 6.3          Kodierung der Daten soll stets unabhängig erfolgen.

Empfehlung 6.4          Plausibilitätsprüfungen (im Rohdatensatz, Dokumentation, Bildung                                 neuer Variablen schriftlich dokumentieren)

Empfehlung 6.5          Auswertungsdatensatz vs Rohdatensatz

Die Auswertung epidemiologischer Studien soll unter Verwendung adäquater Methoden und ohne unangemessene Verzögerung erfolgen. Die den Ergebnissen zugrunde liegenden Daten sind in vollständig reproduzierbarer Form für mindestens 10 Jahre aufzubewahren.

Leitlinie 7: Auswertung

Empfehlung 7.1          Analyseplan

Empfehlung 7.2          Zwischenauswertung, nur wenn begründet

Empfehlung 7.3          Auswertungen sollen vor der Publikation der Gegenprüfung unterzogen                           werden. Daten und Programme sollen archiviert werden.

Leitlinie 8: Datenschutz

Bei der Planung und Durchführung epidemiologischer Studien ist auf die Einhaltung der geltenden Datenschutz-vorschriften zum Schutz der informationellen Selbstbestimmung zu achten.

Leitlinie 9: Vertragliche Rahmenbedingungen

Die Durchführung einer epidemiologischen Studie setzt definierte rechtliche und finanzielle Rahmenbedingungen voraus. Hierzu sind rechtswirksame Vereinbarungen zwischen Auftraggebern und Auftragnehmern sowie zwischen Partnern von Forschungskooperationen anzustreben.

Leitlinie 10: Interpretation

Die Interpretation der Forschungsergebnisse einer epidemiologischen Studie ist Aufgabe der Autoren einer Publikation. Grundlage jeder Interpretation ist eine kritische Diskussion der Methoden, Daten und Ergebnisse der eigenen Untersuchung im Kontext der vorhandenen Evidenz. Alle Publikationen sollten einem externen Review unterworfen werden.

Leitlinie 11: Kommunikation und Public Health

Epidemiologische Studien, deren Anliegen die Umsetzung von Ergebnissen in gesundheitswirksame Maßnahmen ist, sollten die betroffenen Bevölkerungsgruppen angemessen einbeziehen und eine qualifizierte Risikokommunikation mit der interessierten Öffentlichkeit anstreben.

11) Was sind kontrollierte klinische Studien, wo lauern Fallstricke und welche Designs sind denkbar?:

Kontrollierte klinische Studien:

    • Therapievergleich: z.B. brusterhaltende OP vs. Total-OP, 3 vs. 6 Zyklen Chemotherapie, neue vs. Standardtherapie
    • Zulassungsstudien (Industrie)
    • Optimierungsstudien (Investigator)

Was heißt kontrolliert?

  • Vergleich der neuen Therapie mit einer Kontrollgruppe

Warum brauchen wir Kontrollen?

  • Selektion durch Ausschluss von "zu kranken" Patienten
  • Natürlicher Krankheitsverlauf
  • Placebo-Effekt 

Þ     zu optimistische Ergebnisse zu Gunsten der neuen Therapie

Historische Studien

Verzerrung durch:

  • Zeitliche Effekte: Veränderte Diagnostik und Begleittherapie
  • Veränderung der Rahmenbedingungen: Gesundheitspolitik, Compliance, Zusammensetzung der Gruppen
  • Auswahl der historischen Kontrolle

Insgesamt:

  • Weder struktur- noch beobachtungsgleich
  • Adjustierung bzgl. prognostischer Faktoren schwierig
  • Historische Kontrollen favorisieren die neue Behandlung

Unkontrolliert Studien:

beschreibt nur Befunde (vor und  nach Intervention)

keinerlei Hinweis auf Kausalität

Historische Kontrollen

weder struktur- noch beobachtungsgleich

Parallele Kontrollen

beobachtungs- aber nicht strukturgleich

Randomisierte Kontrollen

die einzige Form, die Hinweise auf Kausalität liefert, weil experimentelle und Kontrollgruppe sich nur in der Intervention unterscheiden

Ohne Kontrollen

  • Fallserien (case reports)

Mit Kontrollen

  • Vorher - Nachher
  • Historischer Vergleich
  • Parallel-Vergleich
    • mit fester Zuteilung
    • mit randomisierter Zuteilung

Studientypen (Design) :

offen:

Behandlung allen bekannt

einfach-blind:

Patient kennt Behandlung nicht

doppel-blind:

Weder Arzt noch Patient kennt Behandlung

dreifach-blind:

Weder Arzt noch Patient noch auswertender Statistiker kennt Behandlung. Statistiker weiß nur A, B.

12) Beschreiben Sie kurz Funktion und Kriterien von Studienprotokollen:

Studienprotokoll: Grundsätzlich dient das Studienprotokoll zur Organisation der Studie. Es ist eine verbindliche Festlegung der Durchführung und Auswertung.

Grundlage einer epidemiologischen Studie ist ein detaillierter und verbindlicher Studienplan, in dem die Studiencharakteristika schriftlich festgehalten werden

    • Fragestellung und Arbeitshypothesen
    • Studientyp
    • Studienbasis und Studienpopulation
    • Studienumfang und Begründung
    • Auswahl- und Rekrutierungsverfahren der Studienteilnehmer

Definition sowie das Mess- und Erhebungsverfahren für die Zielvariable

    • Exposition und Risikofaktoren
    • Confounder und Effektmodifikation
    • Datenerfassung und Archivierungskonzeptionen
    • Auswertungsstrategie
    • Maßnahmen zur Qualitätssicherung
    • Datenschutz und Ethik
    • Zeitplan und Verantwortlichkeiten

Empfehlung 3.3          Bereits bei der Planung epidemiologischer Studien soll möglichen Verzerrungen (BIAS) der Ergebnisse entgegengewirkt werden

Empfehlung 3.4          Kontrolle von Selektionsverzerrungen (Nichtteilnahme und Nichtverfügbarkeit)

Empfehlung 3.5          Variablen präzise definieren und möglichst standardisiert operationalisieren

Empfehlung 3.7          Operationalisierungshandbuch

Empfehlung 3.8          Für die Auswertungsphase der Studie sind ausreichende zeitliche und personelle Ressourcen vorzunehmen

15.) Beschreiben Sie folgende Studiendesigns und nennen Sie dessen Vor- und Nachteile sowie 2 Beispiele

a.) Kohortenstudie (retrospektiv und prospektiv)

b.)Querschnittsstudie 

c.) Fall-Kontrollstudie 

 

a.) Kohortenstudie  

Wird auch als prospektive, Längsschnitt- oder Follow-up -Studie bezeichnet

Ausgangspunkt: 2 Gruppen exponierter und nicht exponierter Personen, die krankheitsfrei sind.

Davon ausgehend wird über einen festgelegten Zeitpunkt das Auftreten gewisser Zielereignisse (Inanspruchnahme ärztlicher Leistungen, Krankheit, Todesfälle) beobachtet und deren Häufigkeit (Inzidenz) verglichen.

„ British National Child Development Study“ (NCDS) von Ferri und Sherpherd aus dem Jahr 1992, welche die Entwicklung von 11.400 vom 3. bis 9. März in Großbritannien geborenen Kindern hinsichtlich Ausbildung, bestimmten Einstellungen, Einkommen und Gesundheit über eine Zeitspanne von 34 Jahren mit fünf Erhebungszeitpunkten untersucht hat. (http://de.wikipedia.org/wiki/Kohortenstudie)

www.physio-akademie.de/Woerterbuch-Wissenschaft.82.0.html
retrospektive Kohortenstudie

In einer retrospektiven Kohortenstudie werden Gruppen danach gebildet, ob sie eine bestimmte Exposition  in einem bestimmten Zeitraum aufgewiesen haben oder nicht.

Rückblickende Bildung einer Kohorte von Profi-Fußballspielern, die in den 90er Jahren aktiv war und einer Kohorte von Nicht-Leistungssportlern aus dem gleichen Zeitraum, wenn man ermitteln möchte, ob bei Profi-Fußballern Knie- oder Hüftbeschwerden erhöht auftreten. (http://www.physio-akademie.de/retrospektive-Kohortenstudie.274.0.html)

Vorteile:

* Zeitliche Entwicklung der Krankheiten und der Ursache-Krankheitsbeziehung wird sichtbar

* Trennung zwischen Ursache und Wirkung

* Hohes Maß an Repräsentativität, daher gute Schätzbarkeit der Auswirkungen bei

Exponierten und Kontrollen

* Beobachtbarkeit von mehreren Zielgrößen möglich

* Maßnahmen zur Qualitätssicherung der Studiendurchführung sind möglich

Nachteile:

* zeit- und kostenintensiv

* erfordert viele Versuchspersonen bei seltenen Krankheiten. Bereitschaft zur Mitarbeit?

Selektion?

* lange Laufzeit, mit der Gefahr des Ausfalls von PatientInnen (drop outs)

* Kontrolle, Erfassung  von Störgrößen, Confoundern kann unvollständig sein

* Änderung der Rahmenbedingungen möglich (Inanspruchnahme, Versorgung, Exposition)

b.) Querschnittsstudie (cross- sectional -study)

wird auch als Prävalenzstudie bezeichnet. Da die erhobenen Angaben zu bestehenden Krankheiten prävalent sind und i.d.R keine Angaben zu Erkrankungsdatum und Krankheitsdauer erhoben werden.

Zu einem festen Zeitpunkt oder einem umschriebenen Zeitfenster werden bei einer definierten Studienpopulation sowohl Informationen zum Gesundheitszustand und Krankheiten erhoben als auch potenzielle Einflussgrößen.

Da naturgemäß keine zeitlichen Abhängigkeiten zwischen Einflussfaktoren und Krankheit untersucht werden können, dienen Querschnittstudien im Rahmen der deskriptiven Epidemiologie der Aufdeckung assoziativer Zusammenhänge und der Hypothesengenerierung.

Querschnittstudie zur Ermittlung psychischer Belastungen und Beanspruchungen in der ambulanten Pflege im Rahmen einer Gefährdungsbeurteilung (http://opus.haw-hamburg.de/volltexte/2008/561/)

Querschnittstudien werden erleichtert, wenn sie auf Public-Use-Files basieren, also der wissenschaftlichen Allgemeinheit zur Verfügung gestellten Originaldaten für eine Sekundärnutzung.

Beispiel: Bundesgesundheitssurvey als Grundlage für epidemiologische Studien 

Vorteile:

* relativ rasch an großer Zahl von Personen durchführbar

* relativ billig

* auch für seltener vorkommende Krankheiten

* Population und Untersuchungsmethode vom Untersucher zu wählen

* Standardisierte Befragungen und Untersuchungen diagnostischer Kriterien möglich

*  Häufigkeitsvergleiche zwischen verschiedenen Populationen und Populationsgruppen

möglich

* Aufstellung von Hypothesen möglich

Nachteile:

* Probanden können selektiert sein (z.B. durch Arztkontakte, KH-Aufnahme, Beruf, Tod)

* Krankheitsereignis selbst mag Variable beeinflusst haben (Bsp. Myokardinfarkt-Blutdruck)

* Anamnestische Angabe begrenzt zuverlässig

* Bei seltenen Krankheiten hohe Probandenzahl nötig

* Problematisch bei kurz dauernden (akuten) Krankheiten

* Keine Angaben zur Inzidenz oder zum Risiko

* Testen von Hypothesen nicht möglich

c.) Fall-Kontroll-Studie (Swart, S.61f)

StudienteilnehmerInnen werden nach Vorliegen oder Nichtvorliegen einer Krankheit oder eines anderen definierbaren Tatbestandes - und nicht zufällig - auf Studien- und Kontrollarm verteilt. Das können Todesfälle oder Neuerkrankungen, aber auch die Inanspruchnahme bestimmter medizinischer Leistungen sein.

Fälle: Personen, bei denen das bestimmte Ereignis aufgetreten ist.

Kontrollgruppe: Personen, bei denen Krankheit oder das entsprechende Ereignis nicht aufgetreten ist.

Bei diesen beiden Gruppen wird dann retrospektiv das Vorhandensein möglicher Krankheitsursachen erhoben und miteinander verglichen, nämlich Risikofaktoren, Umweltexpositionen, gesundheitsrelevante Verhaltensweisen o.ä.

Beispiel:  Sir Richard Doll konnte in einer groß angelegten Fall-Kontroll-Studie einen statistisch signifikanten Zusammenhang zwischen Rauchen und Lungenkrebs belegen. Skeptiker hatten, meist mit Unterstützung der Tabakindustrie, über viele Jahre argumentiert, dass diese Art von Studie keine Ursache-Wirkungs-Kette  nachweisen kann, aber letzten Endes bestätigten Ergebnisse von Doppelblind-Längsschnittstudien die kausale Beziehung, die die Fall-Kontroll-Studien nahe legten, und es ist jetzt weithin anerkannt, dass Tabakrauchen ungefähr 87 % aller lungenkrebsbedingten Tode in den USA verursacht. („http://de.wikipedia.org/wiki/Fall-Kontroll-Studie“)

Vorteile:

* gut geeignet für seltene Krankheiten oder solchen mit langen Latenzzeiten

* relativ schnell und kostengünstig durchzuführen

*erfordert relativ wenige Versuchspersonen und Kontrollen

* vorhandene Datenquellen (z.B. Krankheitsakten) können genutzt werden

* Ohne Risiko für die StudienteilnehmerInnen

* Multiple potentielle Krankheitsursachen könne untersucht werden

Nachteile:

* stützt sich auf Erinnerung oder Aufzeichnungen vergangener Expositionen

* Validität der Informationen ist schwer zu bestimmen oder unklar

* Kontrolle, Erfassung von Störgrößen, Confoundern kann unvollständig sein

* Auswahl einer geeigneten Kontrollgruppe kann unvollständig sein

* Risiko bei Fällen und Kontrollen kann nicht bestimmt werden

* Detaillierte Bestimmung des Ursache-Wirkungs-Mechanismus kaum möglich

16) Studiendesigns 

a.) Cross-Over Design 

b.) RCT 

a.) Cross-Over

Möglichkeit zur Durchführung einer Interventionsstudie

Vorteil: ethische Gründe, da keine Gruppe von der Intervention (und z.B. von einer möglichen Verbesserung der Lebensqualität) ausgeschlossen wird.

        Experimentielle- oder Interventionsstudie (Swart S. 60, Beaglehole S. 72)

Beinhalten den Versuch, eine Krankheitsdeterminante oder das Fortschreiten einer Krankheit durch eine Therapie zu beeinflussen. Vom Aufbau her ähneln sie einem wissenschaftlichen Experiment.

Zu den wichtigsten experimentellen Studiendesigns zählen:

  • Klinische Studien (randomisierte, kontrollierte Studien) à PatientInnen nehmen daran teil
  • Felduntersuchungen (gesunde TeilnehmerInnen werden rekrutiert)
  • Populationsstudien, die mit Bevölkerungsgruppen gemacht werden

Kennzeichen des Experiments:

  • Stellt die exakteste Form der wissenschaftlichen Forschung dar
  • Kennzeichen sind: Willkürlichkeit, Variierbarkeit und Wiederholbarkeit
  • Kontrolliert, die für die Hypothese bedeutsamen Variablen
  • Manipuliert die Versuchsbedingungen gezielt
  • Berücksichtigt andere Variablen rechnerisch und hält Störgrößen konstant
  • Wiederholbarkeit unter identischen Bedingungen möglich

Experimente sind nur unter Laborbedingungen durchführbar und werden primär in der klinischen Forschung eingesetzt (weniger relevant für sozialwissenschaftliche und epidemiologische Forschung).

RCT (Beaglehole S. 87)

Randomisierte kontrollierte Studien sind das epidemiolgische Pendant zum klinischen Experiment = Goldstandard. Ziel ist es, die Wirkung einer bestimmten Intervention zu untersuchen.

Kennzeichen:

  • Ermittlung der StudienteilnehmerInnen mittels Ein- und Ausschlusskriterien
  • Zufällige Aufteilung (Randomisierung) der Studienpopulation in Untersuchungs- und Kontrollgruppe, damit gewährleistet werden kann, dass die beiden Gruppen ähnlich sind
  • Die Ergebnisse werden mittels Outcome-Vergleich ausgewertet
  • Einsatz v.a. bei Interventionsstudien, bei denen die Exposition gesteuert bzw. beeinflusst werden soll und in der klinischen Epidemiologie (Bewertung von Medikamenten und Therapieformen)

„Intention to treat Prinzip“:

Ist relevant für die Auswertung der Daten. Bei diesem Vorgehen werden auch jene Fälle in einer RCT berücksichtigt, die bei der Umsetzung der Intervention ausgefallen sind oder diese nur fehlerhaft durchgeführt haben.

17) Was sind Ökologische Studien (Korrelationsstudien), warum und wozu werden sie durchgeführt? Wo sehen Sie Probleme und Vorteile? 

Ökologische Studien (oder auch Korrelationsstudien genannt) untersuchen Merkmale von Personengruppen, jedoch keine Einzelpersonen (z.B. Vergleich von Krankheitshäufigkeiten in verschiedenen Regionen/Staaten/Gemeinden, Darstellung zeitlicher Trends, Krebsatlas etc.). Sie sind primär zur Generierung von Hypothesen geeignet; Ergänzungen sind jedoch durch personenbezogene Studien erforderlich. (z.B. Unterschiede in der Prävalenz von Karies in den USA leiteten Studien zur Bedeutung von Fluorid im Trinkwasser ein oder Absatz eines Antiasthatikums und Auftreten von ungewöhnlich hohen asthmabedingten Todesfällen).

Vorteile:

  • Relativ schnell und einfach durchführbar
  • Stützen sich oft auf bereits vorhandene (amtliche) Daten
  • Keine anderen Daten vorhanden (z.B. Umweltepidemiologie)
  • Man ist nur an ökologischen Effekten interessiert
  • Zeitliche und regionale Vergleiche sind möglich
  • Evaluierung von Veränderungen
  • Arbeiten mit Daten von Bevölkerungen, die sehr unterschiedliche Merkmale aufweisen oder mit Daten, die von unterschiedlichen Datenquellen stammen
  • Entdecken Korrelation/Zusammenhänge

Probleme:

  • Schwer zu interpretieren, da sich die Erklärung für die Befunde nur selten direkt untersuchen lassen
  • Basieren oft auf Daten, die für andere Zwecke erhoben wurden
  • Nicht immer sind Daten über verschiedene Expositionen und sozioökonomische Faktoren verfügbar
  • Effekte kehren sich manchmal um
  • Können keine Aussagen über kausale Beziehungen treffen
  • Within group bias“: Fehler innerhalb der Gruppe (Confounding, Selektion, Messfehler)
  • Confounding by group (Inzidenzrate der nicht-exponierten kann variieren, dann RR schwierig zu berechnen)
  • Ökologischer Trugschluss: Gruppenwerte sagen nichts über individuelle Verteilung aus à Konflikt zwischen Effekt für Gruppen und Individuum (z.B. Helmpflicht schützt nicht vor fahrlässigem Fahrverhalten)
  • Oft keine Confounder Kontrolle möglich
  • Adäquate Daten fehlen (z.B. regionale oder temporale Unterschiede, administrative Grenzen ändern sich

 

18) Daten – Auswertung – Aussagekraft ökologischer Studien 

Untersucht werden Gruppen v. Personen, keine Einzelpersonen, oftmals anhand von Daten die zu anderen Zwecken erhoben wurden.

Aggregierte Meßgrößen indiv. Daten (MW, Median, …)

Kumulierte Daten aus z.B. Umweltmessungen

Daten aus Gesundheitssystem, Screeningprogrammen, …

Bei der Auswertung werden

1.      Die ermittelten Werte personenbezogen interpretiert

2.      Interpretationen für Kombinantionen von Variablen durchgeführt (z.B. Inzidenz – Einkommen)

Aussagekraft

Aussagen sind eher kritisch zu bewerten, Risikoaussagen für einzelne Personen sind abzulehnen. Auch die Datenquellen sind zu prüfen, da die Daten oft zu anderen Zwecken erhoben wurden und sich die Frage stellt, ob sie für die produzierten Zusammenhänge relevant sind. Ökologische Aussagen wie zum Beispiel über den Erfolg der Einführung einer Vorsorgemaßnahme sind möglich.

19.) Was ist unter biologischem bias zu verstehen?

Auf Grundlage ökologischer Daten werden unangemessene Schlussfolgerungen geschlossen. Ein bias entsteht, weil ein auf der Ebene der Population oder Gruppe beobachteter Zusammenhang zwischen den Variablen nicht zwangsläufig auch auf individueller Ebene bestehen muss.

Beispiel: Zusammenhang zwischen Neugeborenen- und Müttersterblichkeit und der Abwesenheit eines Geburtshelfers

Ökologische Rückschlüsse, so eingeschränkt sie auch sein mögen, liefern aber auch wertvolles Ausgangsmaterial für detaillierte epidemiologische Arbeiten.

(„Einführung in die Epidemiologie“, Bonita et al, S. 77)


20.) Welche Epidemiologischen Messzahlen kennen Sie? Beschreiben Sie sie mit Beispiel, ihre Interpretation und die Berechnung (P, I, M, L, SMR, SIR, RR, OR)!

Maßzahlen der Morbidität und Mortalität

Epidemiologische Kennziffern lassen sich grundsätzlich in Proportionen, also Anteile, und Raten unterscheiden. Proportionen nehmen damit Werte zwischen Null und Eins an und werden der besseren Anschaulichkeit wegen häufig in Prozent oder Promille angegeben. Beispiele für Proportionen sind:

§  die Säuglingssterblichkeit - Zahl der im ersten Lebensjahr gestorbenen Säuglinge zu allen Lebensgeburten

§  die proportionale Mortalität - Anteil der an einer bestimmten Krankheit oder Krankheitsartengruppe Verstorbenen an allen Verstorbenen

§  die Sexualproportion - Verhältnis männlicher Babies zu allen Neugeborenen

In der Epidemiologie sind Proportionen weniger gebräuchlich, da sie keinen direkten Bevölkerungsbezug haben. Raten im Gegensatz dazu haben eben diesen, sie geben Aufschluss über Häufigkeiten gesundheitsbezogener Ereignisse. Im Zähler enthalten sie das interessierende Ereignis, z.B. Arztkontakte, Neuerkrankungen, Todesfälle oder Geburten. Der Nenner enthält die Zahl der Personen unter „Risiko“, bei denen das Ereignis eintreten kann.

Die Prävalenz (Krankenstand)ist definiert als die Anzahl der Personen, die zu einem bestimmten Zeitpunkt erkrankt sind (Punktprävalenz). Wenn statt eines Stichtages ein begrenzter Zeitraum als Bezugsgröße genommen wird, z.B. ein Jahr, spricht man von Periodenprävalenz (Personen, die innerhalb dieses Zeitraums mindestens einmal erkrankt waren).

P = Prävalenzrate     = Zahl der kranken Personen an einem Zeitpunkt        *100 000

Gesamtzahl der Personen zu diesem Zeitpunkt

Beispiel:          25% aller Deutschen haben Rückenschmerzen (2001)

Die Inzidenz ist definiert als die Anzahl - in einem definierten Zeitraum - neu aufgetretener Krankheitsfälle. In der Epidemiologie stehen häufig nicht alle Personen im gesamten Zeitraum unter Risiko, z.B. weil sie aus der Beobachtung ausscheiden, sterben, wegziehen, die Krankenkasse wechseln o.ä. In solchen Fällen mit dynamischen und sich verändernden Risikobevölkerungen sollte im Nenner die Summe der exakten Zeiten unter Risiko stehen, sog. Personenmonate oder Personenjahre.

I = Inzidenzrate  = Zahl der Neuerkrankten in einem Jahr          *100 000

Zahl der Personen unter Risiko in diesem Jahr

Altersspezifische  Inzidenzrate:      Bezogen auf eine bestimmte Altersgruppe

Beispiel:          Im Jahre 2003 sind in Deutschland etwa 20 000 Frauen an Brustkrebs erkrankt.

Die Inzidenzrate betrug somit etwa 20 000 / 40 Mio.

Die Mortalität ist definiert als die Anzahl der Todesfälle, bezogen auf die Gesamtanzahl der Individuen oder, bei der spezifischen Sterberate (Alter, Krankheit), bezogen auf die Anzahl der betreffenden Population, meist in einem bestimmten Zeitraum.

M = Mortalitätsrate = Zahl der Verstorbenen in einem Jahr             *100 000

Zahl der Personen in der Bevölkerung in diesem Jahr

(Achtung: Bezugszahl (hier 100 000) nicht immer einheitlich!)

Beispiel:    200 000 Personen starben in Deutschland 2007 an Krebs

 Krebsmortalitätsrate = Zahl der Todesfälle / Population, M = 200 000 / 80 Mio.

0,0025 oder 250 pro 100 000

Die Letalitätsrate ist ein Gradmesser für die Schwere und Bedrohlichkeit einer Krankheit. Die Letalität ist damit keine Rate, sondern eine Proportion mit Werten zwischen 0 und 1 bzw. 0 und 100% und bezeichnet die „Tödlichkeit“ einer Erkrankung. Die Letalitätsrate ist nur für lebensbedrohliche Krankheiten ein aussagfähiger Indikator (z. Neubildungen oder Myokardinfarkt), während man an den meisten chronischen Krankheiten nicht direkt stirbt (z.B. Diabetes, Rheuma). Bei der Angabe der Letalität ist ebenfalls der Zeitraum nach Diagnosestellung bzw. Erkrankung von Bedeutung. Diese kann kurz sein (z.B. 30 Tage nach akutem Myokardinfarkt) oder mehrere Jahre beragen (bei Krebserkrankungen).

L = Letalitätsrate      = Zahl der an der Krankheit Verstorbenen

Zahl der an dieser Krankheit Erkrankten

Standardisierung von Maßzahlen

Der Vergleich von Maßzahlen der Morbidität und Mortalität, die in der Regel stark alters- und geschlechtsabhängig sind, ist erschwert oder gar unmöglich, wenn zwei Populationen unter-schiedliche Alters- und Geschlechtsstrukturen aufweisen, wenn sich eine Population im zeitlichen Verlauf schnell ändert oder wenn die altersspezifischen Raten sehr unterschiedliche Entwicklungen aufweisen.

Direkte Standardisierung (Standardisierung von Ereignismaßen)

Ausgangsfrage: Welches Krankheitsrisiko würde in der vorliegenden Population bestehen, wenn der Altersaufbau der gleiche wäre wie jener in der Standardbevölkerung?

Lösung:

Die in den beiden Studienpopulationen beobachteten Mortalitäts-/Inzidenzraten werden auf einen gemeinsamen Standard bezogen, d.h. auf eine Standard- oder Referenzpopulation mit vorgegebener Alterszusammensetzung. Die Multiplikation der in der jeweiligen Altersklasse der Studienpopulation beobachteten Rate mit dem Anteil der Probanden der gleichen Altersklasse in der Standardpopulation ergibt die gewichtete Rate, und die Summe der gewichteten Raten über alle Altersklassen ergibt die altersstandardisierte Rate.

Üblicherweise verwendete Standardbevölkerungen sind (je nachdem, welche Studienpopulationen miteinander verglichen werden sollen): Welt-Standardpopulation, Europa-Standardpopulation, nationale Altersverteilungen.

Indirekte Standardisierung (Standardisierung von Effektmaßen) 

Ausgangsfrage: In welchem Verhältnis steht das Krankheitsrisiko in der vorliegenden Population zum Risiko, das in dieser Population bestehen würde, wenn es gleich wie in der Referenz- bzw. Gesamtbevölkerung wäre, d.h. „normal“ wäre?

Lösung:

Das SMR bzw. SIR entspricht formal einem relativen Risiko (RR) und gibt Aufschluss darüber, ob die Mortalität bzw. Inzidenz in der Studienpopulation bei gegebener Alterszusammensetzung höher (SMR > 1) oder niedriger (SMR < 1) liegt als in einer Population mit bekannten altersspezifischen Mortalitäts- bzw. Inzidenzraten und durchschnittlichem Sterbe- bzw. Erkrankungsrisiko.

Zusammenhangsmaße

Relatives Risiko

Eine wichtige Aufgabe der Epidemiologie ist die Aufdeckung und Bewertung möglicher Krankheitsursachen und damit verbundener Risiken. Eine häufige Fragestellung lautet: Wie hoch ist das Risiko, an einer bestimmten Krankheit zu erkranken, wenn man einer gewissen Exposition ausgesetzt ist. Beispiele sind Rauchen und Lungenkrebs (Zusammenhang eindeutig bewiesen) oder Strahlenbelastung durch Kernkraftwerke und kindliche Leukämien (keine eindeutige Evidenz bislang).

Zunächst wird dazu das absolute Risiko (Inzidenz) für die Erkrankung bestimmt. Das absolute Risiko ist meist wenig aussagefähig, da häufig die Risiken absolut gesehen sehr gering sind. Selbst unter starken Rauchern erkranken bei weitem nicht alle an Lungenkrebs. Das Risiko wird daher erst in einem Vergleich mehrerer Risiken interpretierbar. Dazu bieten sich die Risikodifferenz und das Risikoverhältnis (relatives Risiko) an.

Die Deutung des relativen Risikos ergibt sich wie folgt:

RR = 1: Das Risiko der Exponierten ist gleich groß wie das Risiko der Nicht-Exponierten (kein Zusammenhang)

RR > 1: Das Risiko der Exponierten ist größer als das Risiko der Nicht-Exponierten (positiver Zusammenhang, Exposition möglicherweise krankheitsverursachend bzw. krankheitsfördernd)

RR < 1: Das Risiko der Exponierten ist kleiner als das Risiko der Nicht-Exponierten (negativer Zusammenhang, Exposition möglicherweise protektiv)

Da sich das Risiko definitionsgemäß über die Zahl der Neuerkrankungen berechnet, kann es nur aus prospektiven Kohorten- bzw. Längsschnittstudien berechnet werden, in dem eine Studiengruppe unter Exposition und eine Kontrollgruppe ohne Exposition auf das Auftreten einer oder mehrerer Krankheiten beobachtet werden.

Odds Ratio (OR) 

Für die Berechnung des relativen Risikos werden Daten zur Krankheitsinzidenz bei exponierten und nicht-exponierten Personen benötigt. Bei einer Fall-Kontroll-Studie sind die Inzidenzen jedoch nicht bekannt, da von Erkrankten (Fällen) und Nicht-Erkrankten (Kontrollen) ausgegangen wird. (RR kann nicht in einer Fall-Kontrollstudie berechnet werden, da Risiko nicht berechnet werden kann).  Dennoch lässt sich unter bestimmten Bedingungen auch in einer Fall-Kontroll-Studie ein Näherungswert für das relative Risiko berechnen. Dabei lässt sich bei Fällen und Kontrollen retrospektiv der Anteil der exponierten Personen bestimmen und miteinander in Beziehung setzen. Dazu verwenden wir – als Hilfskonstruktion -  die Odds Ratio. Die Chance für ein bestimmtes Ereignis ist allgemein der Quotient aus der Zahl der Möglichkeiten für ein bestimmtes Ereignis und der Zahl der Möglichkeiten für das Ausbleiben des Ereignisses.

Die Odds-Ratio ist also der Quotient des Produkts der Werte aus der Hauptdiagonale und der Nebendiagonale und wird deshalb auch als Kreuzproduktverhältnis bezeichnet.

Die Odds Ratio, die im Übrigen auch in prospektiven Studien berechnet werden kann, wird ähnlich wie das relative Risiko interpretiert. Ohne einen Zusammenhang zwischen Exposition und Krankheit wird sich in Fall-Kontroll-Studien eine OR von ungefähr 1 ergeben. Je stärker die Exposition positiv mit der Krankheit assoziiert ist, also ein Risiko(-faktor) darstellt, desto größer ist der Quotient der beiden Chancen. Ein Wert kleiner 1 deutet dagegen auf einen protektiven Einfluss der Exposition hin.

21.)Was versteht man unter Kausalität in der Epidemiologie, welche Kriterien (mit Beschreibung) lassen sich identifizieren? 

Die Schwierigkeit, einen kausalen Zusammenhang zwischen einer potenziellen Ursache und einer Krankheit aus epidemiologischen Studien zu ziehen, liegt in der Abgrenzung einer Ursache-Wirkungs-Beziehung von einer rein statistisch auffälligen Assoziation zweier Variablen.

Als Ursacheeiner Krankheit wird ein Ereignis, eine Bedingung, eine Eigenschaft oder eine Kombination dieser Faktoren verstanden, die eine bedeutsame Rolle in der Entstehung dieser Krankheit spielt. Logischerweise muss dieser Grund der Krankheit zeitlich vorausgehen.

Eine Ursache ist hinreichend für die Krankheit, wenn sie zwangsläufig die Krankheit hervorruft oder auslöst. Sie ist notwendig, wenn sich die Krankheit nicht ohne sie entwickeln kann.

Kriterien für die Bewertung einer Assoziation wurden von Bradford Hill 1965 aufgestellt.

Zeitliche Beziehung

Geht die Ursache der Wirkung voraus? (unverzichtbares Kriterium)

Plausibilität

Stimmt die Assoziation mit anderen Erkenntnissen überein? (Wirkungsmechanismen, Ergebnisse von Tierversuchen)

Konsistenz

Führen andere Studien zum gleichen Ergebnis?

in verschiedenen Studien, in verschiedenen Populationen, unter verschiedenen Bedingungen

Stärke

Wie stark ist der Zusammenhang zwischen der Ursache und der Wirkung? (relatives Risiko)

Je stärker die Assoziation, umso höher die Wahrscheinlichkeit, dass es sich um einen kausalen Zusammenhang handelt.

Spezifität

Ursprünglich hatte Hill gefordert, dass ein   kausaler Faktor zu einem einzelnen Effekt führen muss

ABER: Ein Faktor kann verschiedene Krankheiten hervorrufen und trotzdem für eine oder mehrere kausal sein

Dosis-Wirkungs-Beziehung

Steigt das Ausmaß des Zusammenhangs mit zunehmender Exposition?

Je höher die Dosis, desto größer die Wirkung

Reversibilität

Entzug der Exposition

Führt die Beseitigung einer vermuteten Ursache zu einem verringerten Krankheitsrisiko?

Zeitliche Sequenz

Exposition  Þ  Effekt

Beispiel: Kohortenstudie zur Handy-Nutzung und Hirntumoren:
Ist die Latenzzeit angemessen berücksichtigt?

Biologische Plausibilität

der Kausalbeziehung

Beispiel: Bereits in den 80er Jahren hatten Laborexperimente einen Zusammenhang zwischen HPV und der Entstehung von Zervixkarzinom gezeigt.

Studienplan

Basieren die Ergebnisse auf einem überzeugenden Studienplan?

Beurteilung der Evidenz

Auf wie vielen Beweisen beruhen die Ergebnisse/Folgerungen?

Alternative Erklärungen

Zufall, Systematische Fehler (Bias), Confounding

Wenn Aussagen über die Kausalität gemacht werden sollen, ist es wichtig, dass alle möglichen anderen Erklärungen diskutiert wurden.

 

22.)Welche Verzerrungsquellen kennen Sie? 

Studien können durch eine Reihe von sowohl zufälligen als auch systematischen Fehlern zu verzerrten Ergebnissen führen.  In der Epidemiologie werden diese Bias (systematische Fehler)genannt, worunter systematische Abweichungen von Messungen oder Schlussfolgerungen vom wahren Sachverhalt verstanden werden. Diese können ihre Ursachen im Studiendesign, der Datenerhebung und Auswertung, der Ergebnisinterpretation oder der Publikation der Ergebnisse haben.

Zufällige Fehler sind durch die Variabilität der Studienteilnehmer bedingt (Kontrolle anhand des Konfidenzintervalls).

Es können verschiedene Formen von  systematischen Fehlern (Bias) unterschieden werden:

Detection/diagnosis bias: Fehler bei der Erhebung der Daten oder der Diagnose bzw. Verifikation von Fällen gegenüber Kontrollen, z.B. durch Anwendung eines diagnostischen Tests bei Krankenhausfällen und nicht bei Bevölkerungskontrollen.

Information bias: Unterschiedliche Genauigkeit in der Messung und Erhebung von Daten in verschiedenen Gruppen, z.B. intensivere Diagnostik in der Studiengruppe als bei Kontrollen.

Observer bias: Verzerrung durch interpersonelle (zwischen mehreren Personen) oder intrapersonelle (zu verschiedenen Zeitpunkten bei der gleichen Person) Variation in der Beobachtung oder Erhebung von Daten, z.B. in der Bewertung diagnostischer Verfahren wie Röntgenaufnahmen oder pathologischen Befunden.

Interviewer bias: Verzerrung, die durch die Person des Interviewers und sein Auftreten hervorgerufen wird.

Recall bias: Verzerrung durch unterschiedliche Genauigkeit bei der retrospektiven Erhebung von Information aus der Erinnerung, etwa zwischen Eltern von leukämiekranken Kindern und Eltern von Kontrollen.

Reporting bias: Verzerrung durch selektive Nicht-Berichterstattung bestimmter Ereignisse wie sexuell übertragbare Krankheiten oder Alkoholmissbrauch.

Response bias: systematischer Fehler durch die Antworten von Personen, die freiwillig oder nicht an einer Erhebung teilnehmen, z.B. bei einer Volkszählung zwischen Befürwortern und Gegner einer derartigen Erhebung.

Selektionsbias: Verzerrung aufgrund der Unterschiede zwischen Teilnehmern und Nichtteilnehmern an einer Studie, z.B. unterscheiden sich Teilnehmer an Früherkennungsuntersuchungen in vielen sozioökonomischen Merkmalen von Nichtteilnehmern.

Stichprobenbias: Verzerrung durch Wahl eines Stichprobenverfahrens, bei dem nicht jedes Element der Grundgesamtheit die gleiche Wahrscheinlichkeit hat gezogen zu werden oder bei dem diese Wahrscheinlichkeit nicht bekannt ist. Das ist offensichtlich bei Straßenumfragen; aber auch der Fall, wenn bei Haushaltsbefragungen die Auswahl der Haushalte über die Bewohner erfolgt und dann große Haushalte eine größere Ziehungswahrschenlichkeit als kleinere Haushalte besetzen.

Length sampling bias: Verzerrung durch überproportionalen Anteil von langen Fällen in einer Studie, z.B. bei symptomloser Früherkennung oder bei Umfragen in Vertragsarztpraxen, bei denen Stammpatienten eher ausgewählt werden als neue Patienten bzw. Vertretungsfälle.

Lead time bias: Verzerrung durch unterschiedlich lange Beobachtungszeiten, z.B. zwischen Karzinomen, die in der Früherkennung oder nach Beschwerden erkannt werden, auch wenn die Behandlung keinen Einfluss auf den Verlauf hat.

Withdrawal bias: Unterschiede, die durch nicht neutrale Ausfälle aus einer Studie hervorgerufen werden, z.B. wenn aus einer Längsschnittstudie primär chronisch kranke Personen aufgrund ihres Gesundheitszustandes ausscheiden.

Vor allem aus der Sozialwissenschaft sind weitere Verzerrungsmöglichkeiten bekannt.

Healthy worker effect: Positive Selektion in bestimmten Berufen, weil die gesundheitlich angeschlagenen aus der Tätigkeit oder aus dem Berufsleben insgesamt ausscheiden bzw. schon bei der Rekrutierung gesundheitliche Aspekte eine Rolle spielen. Das kann z.B. in Untersuchungen bei Pflegekräften aufgrund des verbreiteten Burn-Out-Syndroms der Fall sein

Hawthorne-Effekt: Die Kenntnis an einer Untersuchung teilzunehmen, kann für sich genommen schon das übliche Verhalten verändern, etwa im Hinblick auf sozial gewünschtes Verhalten oder weil sich Probanden bei physiologischen Tests (Hören, Sehen, Konzentration) mehr als gewohnt anstrengen.

Confounder

Auch wenn die oben genannten Verzerrungsmöglichkeiten geprüft und ausgeschlossen bzw. kontrolliert sind, kann die Interpretation von Studienergebnissen durch Confounder verfälscht werden. Ein Confounder ist eine Variable, die den beobachteten Zusammenhang zwischen einer unabhängigen Größe und Zielgröße beeinflusst, da sie mit beiden Größen in Zusammenhang steht: z.B. Rauchen erhöht das Krankheitsrisiko und es gibt gleichzeitig eine positive Korrelation zwischen Rauchen und Kaffeetrinken.

Ein Confounder ist also ein Drittfaktor, der

(1) ein Risikofaktor für die Studienkrankheit und

(2) mit der zu untersuchenden Exposition assoziiert ist, ohne nur unmittelbare Konsequenz dieser Exposition zu sein.

Schematische Darstellung: „Confounding-Dreieck“: Vermeintliche Assoziation zwischen Exposition und Erkrankung aufgrund einer Störgröße, die sowohl mit der Exposition als auch der Erkrankung assoziiert ist, aber nicht von der Exposition kausal abhängig sein darf.

Ob eine Variable ein Confounder ist, lässt sich nur anhand des unterstellten Erklärungsmodells und/oder der gestellten Frage beantworten. Es gibt hier keine allgemeingültigen Antworten. Relevante Confounder in der Epidemiologie sind jedoch in der Regel:

Alter, Geschlecht, Rasse/Nationalität, Soziale Schicht, Komorbidität, Ernährung, Gesundheitsverhalten, Weitere Risikofaktoren

Möglichkeiten der Behandlung von Confoundern sind:

Restriktion: z.B. werden nur Personen einer bestimmten Altersgruppe untersucht

Stratifizierung: Der Zusammenhang zwischen Einfluss- und Zielgröße wird für die einzelnen Ausprägungen eines Confounders separat untersucht

Matching (individuell oder gruppenweise): Bei der Wahl der Studien- und Kontrollgruppe und der Rekrutierung der Studienteilnehmer wird auf gleiche Ausprägung der Confounder bei individuellen Beobachtungspaaren oder beiden Gruppen geachtet

Standardisierung: Wird meist nach Alter und Geschlecht vorgenommen, kann aber auch unter Einbeziehung anderer Merkmale erfolgen. Dabei werden gewisse Kennzahlen einer Untersuchungsgruppe auf eine hinsichtlich relevanter Merkmale bekannte Standardpopulation umgerechnet und damit vergleichbar gemacht

Multivariatestatistische Verfahren: Diese untersuchen den Zusammenhang zwischen potenziellen Einfluss- und Zielgrößen bei gleichzeitiger Berücksichtung von Confoundern

23.)Was bedeutet statistische Signifikanz?

Unterschiede zwischen Messgrößen oder Variablen in der Statistik heißen signifikant (wesentlich), wenn die Wahrscheinlichkeit, dass sie durch Zufall so zustande kommen würden, nur gering ist. Damit weist Signifikanz auf einen möglichen Zusammenhang zwischen den Messgrößen hin.

Dennoch muss ein solcher Zusammenhang nicht zwingend vorhanden sein. Auch Unterschiede, die statistisch signifikant sind, können zufällig sein. Wie wahrscheinlich das ist, hängt von der Auswahl der untersuchten Messgrößen ab. Es können zwischen 0% und 100% der statistisch signifikanten Zusammenhänge zufälligen Ursprungs sein.

Überprüft wird Signifikanz durch an das Datenmaterial angepasste statistische Tests, die eine Abschätzung der Irrtumswahrscheinlichkeit erlauben. Das a priori festzulegende Quantil der maximal zulässigen Irrtumswahrscheinlichkeit wird als Signifikanzniveau α (griech.: alpha) bezeichnet. Beispielsweise bedeutet α = 0,05, dass die maximal zulässige Wahrscheinlichkeit für Irrtum 5% beträgt. Umgekehrt beträgt die Wahrscheinlichkeit, dass eine richtige Nullhypothese vom Test korrekt bestätigt wird, 1-α.

Statistisch signifikante Studien können trotzdem einen geringen praktischen Aussagewert haben. Studien mit großer Fallzahl führen aufgrund der hohen statistischen Power (Teststärke) oft zu hoch signifikanten Ergebnissen. Solche Studien können trotzdem einen geringen Aussagewert haben, wenn die Größe des beobachteten Effekts oder der gemessene Parameter nicht relevant sind. Statistische Signifikanz ist also ein notwendiges, aber noch kein hinreichendes Kriterium für eine praktisch auch relevante Wirkung. Für die Beurteilung der Relevanz ist die Effektstärke (Effektgröße) ein wichtiges Hilfsmittel.

Der p-Wert ist das Ergebnis eines statistischen Signifikanztests. Mit Hilfe eines Signifikanztests kann man a priori formulierte Hypothesen überprüfen. Die „Nullhypothese“ (H0) ist zumeist die Formulierung der Gleichheit (kein Effekt), die „Alternativhypothese“ (H1) die Formulierung eines Unterschieds (Effekts) bezüglich einer interessierenden Fragestellung. Der P-Wert ist nicht die Wahrscheinlichkeit für die Richtigkeit der Nullhypothese (häufigste Fehlinterpretation). Diesem Ereignis lässt sich (aus der Sicht der „klassischen Statistik“) gar keine Wahrscheinlichkeit zuordnen. Ob ein Effekt da ist oder nicht, ist zwar unbekannt, aber fix, und ist nicht das Resultat eines Zufallsexperiments.

Man kann die Hypothesen zweiseitig (Gleichheit vs. Unterschied) oder einseitig (Gleichheit vs. positiver Effekt bzw. Gleichheit vs. negativer Effekt) formulieren. In der Regel werden zweiseitige Hypothesenformulierungen verwendet.

Vor der Datenerhebung wird eine maximale Irrtumswahrscheinlichkeit festgelegt (Signifikanzniveau α), die den Fehler 1. Art, nämlich die Nullhypothese abzulehnen, obwohl sie richtig ist, begrenzt. Häufig gewählte Niveaus sind α = 0,05 und α = 0,01. Ist der P-Wert kleiner als das festgelegte Signifkanzniveau, so liegt statistische Signifikanz zum Niveau α vor.

Kurzgefasst: Der so genannte „p-Wert“ ist das Ergebnis eines Signifikanztests zur Prüfung einer vorab aufgestellten (Null-)Hypothese. Ist der p-Wert kleiner als das, ebenfalls vorab, gewählte Irrtums-(Signifikanz-)Niveau α, dann gilt das Ergebnis als statistisch signifikant. Statistische Signifikanz ist nicht gleichbedeutend mit klinischer Relevanz.

 

Letzte Änderung am Donnerstag, 24 Juli 2014 17:09

Health Consulting

Seit 2014 bin ich als selbständiger Unternehmensberater mit den Schwerpunkten Health Literacy und Social Health tätig. Zusammen mit verschiedenen Netzwerkpartnern kann ich Ihr gewünschtes Projekt rasch und zuverlässig umsetzen. Gerne stehe ich auch als externer Berater zur Verfügung.

eBook-Promotion

Coverbild

Das eBook "Zukunftsdisziplin Gesundheitskompetenz" zeigt Ihnen auf rund 270 Seiten, wie Sie mit den gesundheitsrelevanten Herausforderungen besser umgehen können. Welche Vorteile ergeben sich durch mehr Kompetenzen und wie kann ich diese steigern?

Kostenloser Ratgeber

Broschuere Web Vorschaubild

Die Suche nach hochwertigen Gesundheitsinformationen im Internet ist nicht immer einfach. Dieser einfach verständliche Ratgeber erläutert Schritt für Schritt wie Sie schnell und einfach zu qualitativ hochwertigen Gesundheitsinformationen kommen. 

Qualitätsauszeichnungen

medisuch Siegel2012mx4 Diese Web Seite ist von der Health On the Net Stiftung akkreditiert. Seit 2015 wird aus Kostengründen darauf verzichtet - die Einhaltung des HON-Codes hat trotzdem oberste Priorität frag Finn - Seiten für Kinder


Die Qualität der angebotenen Informationen ist mir wichtig, diese unabhängigen Organisationen bestätigen dieses Vorhaben.