Eine Reise durch die Physiologie - Wie der Körper des Menschen funktioniert
 

    
Grundlagen und Methoden der Physiologie; molekulare und zelluläre Aspekte
   

Forschungsmethoden, Studiendesign, Modelle, wissenschaftliches Publizieren
© H. Hinghofer-Szalkay

Biometrie: βίος = Leben, μέτρον = Maß(stab)
empirisch: εμπειρία = Erfahrung (πειρία = Untersuchung, Experiment)
Impact Factor: impingere = (aus)wirken, facere = machen, tun
Literatur: "das Geschriebene", von littera = Buchstabe
Methode: μέθοδος = Nachgehen (auf einem Weg)
Modell: modulus = Baumaß
Peer review: peer = Gleichrangiger, Kollege

Publikation: publicus = öffentlich
Theorie: θεωρεῖν  = betrachten, θεωρία = Sehen, Anschauung, wissenschaftliche Betrachtung, Überlegung, Einsicht



Biologische Forschung bedarf eines planvollen Vorgehens: Definition des Problems, Literaturstudium, rational begründete Hypothese, Studienplan, methodisch einwandfreies Vorgehen, akkurates Datenmanagement, Evaluierung und Publikation der Ergebnisse.

Wissenschaftlichkeit äußert sich u.a. in der Offenheit gegenüber Falsifikation, d.h. man vermeidet dogmatische Aussagen und stellt sich laufender Überprüfung. Hypothesen werden vorgeschlagen und überprüft, bessere Vorschläge ersetzen gegebenenfalls ihre Vorgänger - der Weg zu Erkenntnisgewinn.

Logische (Computer-) oder materielle (mechanische) Modelle kommen zur Anwendung, wenn sie Vorteile gegenüber dem abgebildeten Original bieten: Leichter manipulierbar, verständlicher, finanzierbar, besser beobachtbar. Sie sollen prädiktiven oder erklärenden Wert haben und können zur Hypothesentestung eingesetzt werden. Das Experiment am realen lebenden Objekt können sie allerdings nicht immer ersetzen.

Wissenschaftliche Publikationen sollen bestimmten Gütekriterien genügen: Klare Fragestellung und Zielsetzung, adäquates Studiendesign, zutreffende Methoden, ausreichende Zahl der Beobachtungen, geeignete biometrische Vorangsweise, klare Darstellung der Ergebnisse, angemessene Schlussfolgerungen und zitierte Literatur. Auch spielt die Zeitschrift oder das Medium, in der/dem die Studie veröffentlich wurde, eine wichtige Rolle: So weist der Impact Factor einer Zeitschrift auf ihre Akzeptanz und die Bedeutung hin, die ihr in der jeweiligen Community beigemessen wird.

Originalpublikationen stellen neue Daten bzw. Verfahren vor; Übersichtsarbeiten (Reviews) fassen die Befunde aus Originalpublikationen zusammen.



Methodik Publikationen: Qualität Studiendesign  Wissenschaftliche Modelle

Core messages
 
Forschungsprogramme müssen gut durchdacht sein

Wissenschaft bedarf kontinuierlich neuer Erkenntnisse. Wie kommen diese zustande? Es sind meist nicht (nur) geniale Eingebungen aus dem blauen Himmel; Erkenntnisgewinn erfolgt im Allgemeinen als sehr disziplinierter und wohlorganisierter (und meist mühsamer) Prozess, unter Nutzung der Methoden wissenschaftlicher Forschung.
 

>Abbildung: Der Weg von der Idee zur Veröffentlichung (und zurück)

Am Anfang steht eine Idee / Fragestellung. Dann geht es über Literaturrecherche, Studienplanung, Durchführung, Dateninterpretation bis zur wissenschaftlichen Veröffentlichung.
 
Diese dient dann wieder als Ausgangspunkt für weitere Projekte


Methodik
 

Zur Methodik wissenschaftlichen Vorgehens gehören folgende Schritte (Forschungsplan):

 
  Festmachen der Fragestellung, Definition des Problems (manch eine Studie scheitert daran, dass nicht klar ist, was eigentlich erforscht werden soll)

    Rationaler Ausgangspunkt für die Fragestellung der betreffenden Studie (theoretische Grundlagen, Literaturstudium)
 
 
  Formulierung einer rational begründeten Hypothese (auf der Basis vorhandener Erkenntnisse)
 
    Abschätzung der wahrscheinlich erfolgversprechenden Strategie (Studienaufbau, Zahl und Art der notwendigen Beobachtungen / Messungen, korrekte Messverfahren, bestmögliche statistische Beschreibung, Bearbeitung und Interpretation)
 
 
  Absicherung in finanzieller (Projektbudget; Sponsoring?) und ethischer Hinsicht (Votum der Ethikkommission; Helsinki-Kriterien: Die Deklaration von Helsinki zu ethischen Grundsätzen für die medizinische Forschung am Menschen wurde 1964 von der 18. Generalversammlung des Weltärztebundes verabschiedet)
 
 
  Management der Projektdurchführung (Beschäftigung wissenschaftlich versierter MitarbeiterInnen: "Projektstellen")
 
 
  Sichtung, Bewertung und Darstellung der resultierenden Daten (Datenmanagement, Statistik)

 
  Kritische Evaluierung der Ergebnisse (wurden die eingangs gestellten Fragen beantwortet? Gibt es Überraschungen?), Interpretation der Daten (was sagen diese aus?)
 
 
  Adäquate Veröffentlichung (Publikation ) des Studienzwecks und -aufbaus, der Daten und Erkenntnisse, Reflexion vor dem Hintergrund bereits vorhandenen Wissens

Letzteres erfolgt in einer Weise, die eine zusätzliche Absicherung durch das Urteil von Fachgutachtern (Reviewer) einschließt: Man sendet den Publikationsentwurf an eine wissenschaftliche Zeitschrift (Scientific Journal), und diese übernimmt den Prozess der Begutachtung. Wird die Arbeit schließlich angenommen ("accepted for publication"), gilt die Arbeit als zitierfähig und kann den persönlichen Publikationslisten der Autoren beigefügt werden.
 
Studiendesign
 
Ein wesentliches Merkmal guter Untersuchungen ist ein angemessenes Studiendesign, also die Fundierung (Fragestellung, bisherige Erkenntnisse?), Planung (Stichproben?) und Durchführung (Methodik?) der Untersuchungen sowie die Interpretation der Ergebnisse (statistische Plausibilität?)
 

<Abbildung: Klinisches Studiendesign

Wird keine Intervention vorgenommen, dann handelt es sich um eine Beobachtungsstudie (observational study, links). Diese kannn analytisch sein, wenn vergleichende Gruppen mituntersucht werden: Querschnitts-, Kohorten-, oder Fall-Kontroll (case control)- Studien; oder nicht, dann handelt es sich um eine deskriptive Studie.
 
Wird eine Intervention vorgenommen, dann handelt es sich um eine Interventionsstudie (rechts): Entweder mit (kontrollierte Studie) oder ohne Randomisierung


Kontrollierte Studien haben im Allgemeinen höhere Aussagekraft; man schützt sich vor Fehlern durch Erwartungshaltung usw. Kontrollgruppen werden einer Vergleichsmaßnahme ausgesetzt (z.B. Placebogabe), die Verumgruppe erhält die Behandlung, deren objektive Wirkung getestet werden soll, z.B. ein Medikament oder eine ärztliche Maßnahme. Die Zuordnung der einzelnen Probanden / Patienten zu einer solchen Gruppe erfolgt durch "Würfeln", also zufallsgesteuert (random assignment). Die Gruppen müssen möglichst gleichmäßig zusammengesetzt sein (Alter, Geschlecht, Gesundheitszustand etc).

Bevor eine Studie in Angriff genommen wird, sind wichtige Fragen zu klären, wie

     Prüfplan (Protocol) - was sind die Ziele der Studie? Wie sollen die Hypothesen geprüft werden? etc

  
  Ethische Zulässigkeit - werden die Helsinki-Kriterien erfüllt? Können Probanden zu Schaden kommen, ist ihre Würde gewahrt? etc

  
  Auswahl der Probanden, Art und Größe der Stichproben (Statistische Voraus-Abschätzungen)

  
  Randomisierung - Selektionseffekte durch (unbewusste) Schieflage (bias) bei der Definition der Stichproben werden vermieden

  
  Verblindung - z.B. double blind, weder Proband noch Untersucher wissen, ob z.B. ein Placebo oder ein Verum zum Einsatz kommen, Selbsttäuschungseffekte werden vermieden

  
  Festlegung der zu messenden Zustandsvariablen und Messmethoden (sind diese durchführbar, finanzierbar, für die Fragestellung aussagekräftig, möglichst risiko- und schmerzfrei ...?)

  
  Datenauswertung - ist klar, wie mit den Daten zu verfahren ist?
 
Bei experimentellen Vorgangsweisen unterscheidet man "unabhängige" und abhängige" Variable.

Eine unabhängige Variable ist ein Faktor, der vom Foscher im Versuch beeinflusst (manipuliert) wird; zum Beispiel eine Hormongabe oder eine elektrische Reizung. Die Veränderung einer unabhängigen Variable kann als Reiz (input) gesehen werden, auf den das untersuchte System reagieren soll.

Eine abhängige Variable ist ein Faktor, den der Forscher misst, um die Reaktion (output) des System auf die Manipulation der unabhängigen Variablen zu verfolgen. Diese Vorgangsweise kann als Systemanalyse gesehen werden: Ungereizte Systeme verharren in einem - meist weniger aufschlussreichen - Gleichgewichtszustand, gereizte Systeme geben mehr von ihrer Natur preis (z.B. eine Verhaltensänderung nach einer Hormongabe oder eine komplexe Bewegung nach Reizung einer Gehirnregion).
 
Bereit sein für das Unerwartete
 

>Abbildung: Nicht jede Idee ist von hohem wissenschaftlichem Rang 
Quelle: Vadlo.com

So wichtig die Beachtung all dieser Punkte für die Planung eines Forschungsprogramms sind: Eine spielerische Komponente muss erhalten bleiben - wenn auch auf rationaler Grundlage -, Freiheit des Denkens "outside the box" gewahrt bleiben. Andernfalls besteht die Gefahr, dass Unerwartetes gar nicht erkannt wird.

Wissenschaftliche Publikationen müssen aber gerade auch die Frage beantworten, welchen Neuigkeitswert die Daten haben ("what's new?").

Hätte sich z.B. Alexander Fleming nichts dabei gedacht, wie Schimmelpilze in einer Kultur angesetzte Staphylokokken vernichteten und statt einer Analyse seiner Beobachtung die "vergammelten" Objektträger einfach entsorgt, dann hätte er das Penicillin nicht entdeckt. Kreativität erfordert Offenheit im Denken.


Wie publiziert man seine Ergebnisse?
 
Wie beurteilt man, welches Gewicht in Publikationen getätigten Aussagen zukommt?

Frage: Woher kommt das Wissen, auf dem wir die Logik medizinischer - diagnostischer, therapeutischer, kurativer, prophylaktischer - Maßnahmen aufbauen? Wie gelangt die Heilkunde zu besseren, humaneren, verlässlicheren, schmerzfreieren Methoden und Handlungen? Woher kommt der Fortschritt in der Medizin?

Antwort: Aus planvollen Untersuchungen unter Anwendung wissenschaftlicher Methoden. Dabei gilt das Prinzip der Offenheit (Nachvollziehbarkeit) und Disziplin (Beachtung aller nötigen Regeln).

Die Ergebnisse solcher Studien werden in wissenschaftlichen Zeitschriften veröffentlicht (publiziert). Wie beurteilt man deren Qualität?

     Dazu wurde vom Institute for Scientific Information (ISI) in Philadelphia der 'Impact Factor' (IF) eingeführt. Er ist einer von mehreren Maßzahlen, welche Eigenschaften wissenschaftlicher Publikationsforen quantifizieren; dazu gehört u.a. auch die Nachhaltigkeit, mit der Publikationen zitiert werden, die in einem solchen Organ veröffentlich wurden (citation half-life - 'Altern' der Information, in Analogie zum radioaktiven Zerfall als 'Halbwertszeit' bezeichnet: die Zeit, nach der die Zitierfrequenz auf die Hälfte ihres anfänglichen Wertes absinkt).

Der IF einer Zeitschrift 'Z' für das Jahr 'Y' gibt an, wie oft durchschnittlich in einem bestimmten Jahr Y Publikationen genannt wurden, die in den beiden vorausgegangenen Jahren in Z erschienen sind. Jedes Jahr wird für jede (erfasste) Zeitschrift ein neuer IF berechnet. Zeitschriften, deren Arbeiten - aus welchen Gründen auch immer - oft zitiert werden, erhalten hohe Impactfaktoren. (Über die Qualität einzelner Arbeiten sagt der IF direkt nichts aus.)

Beispiel: Z druckt in den Jahren 2008 und 2009 120 zitierfähige Publikationen. Es wird ermittelt, wie viele Nennungen dieser Arbeiten weltweit im Jahr 2010 (durch andere Arbeiten) erfolgen. Finden sich insgesamt 240 solche Zitate, dann beträgt der Impactfaktor dieser Zeitschrift für das Jahr 2010 2,0 (240/120).

Für eine einzelne Publikation kann aus dem IF des Journals nur insofern etwas ausgesagt werden, als er angibt, wie oft Arbeiten aus der betreffenden Zeitschrift generell zitiert werden, wie 'beliebt' für diesen Zweck die Zeitschrift also ist (bzw. die darin publizierenden Autoren sind). Ein Hauptgrund für hohe Impactfaktoren ist im Allgemeinen, dass für die Annahme von Publikationen besonders strenge Maßstäbe angelegt werden.

Experten lesen und kritisieren eingesandte Publikationstexte und entscheiden, welche angenommen ('accepted for publication') und welche abgelehnt ('rejected') werden, und welche Klärungen, Änderungen oder Ergänzungen vorgenommen werden müssen, bevor der Text endgültig akzeptiert und zum Druck freigegeben wird.
 

<Abbildung: Der Vorgang des Peer-Review
Nach einer Vorlage bei recentscientific.com

Für Autoren eine Hürde, für Leser eine Qualitätsgarantie: Der eingesendete Text (paper) wird zunächst von einem Herausgeber auf grundsätzliche Eignung (für die betreffende Zeitschrift) geprüft. Schon auf dieser Stufe kann das Manuskript abgelehnt werden. Gibt der Herausgeber den Text an (von ihm bestimmte) Begutachter (reviewer) weiter, befinden diese über sprachliche, formale, statistische, methodische und andere Qualitäten bzw. Schwächen, und lehnen (individuell) das Papier entweder ab (rejected) oder schlagen Verbesserungen vor.
 
Die Autoren können dann entweder das Papier zurückziehen (was selten ist) oder bearbeiten, um die Kritikpunkte und Vorschläge so gut wie möglich zu berücksichtigen. Dann senden sie die überarbeitete Vesion wieder an die Zeitschrift, und der Prozess wird nochmals durchlaufen (üblicherweise über die selben Begutachter).
 
Sind Begutachter und Herausgeber schließlich zufrieden, gilt das Manuskript als angenommen (accepted), und es beginnt der Vorgang der Herstellung des endgültigen Textes, der nach einiger Zeit - meist zunächst online, dann im Druck - veröffentlicht (published) wird und von da an wiederum von anderen Publikationen zitiert werden kann


Dieses Review-Verfahren (<Abbildung) ist ein Qualitätsfilter, der dem Leser garantiert, dass die Publikation bereits eine mehrfache strenge Fachprüfung 'überstanden' hat, bevor sie publik gemacht wird - ein grundsätzlicher Sicherheitsfaktor.

Der IF hängt also direkt mit dem Qualitätsanspruch des wissenschaftlichen Beirates zusammen. Ein hoher IF steigert das Renommee der Zeitschrift, und so entsteht ein Wettlauf der Autoren, in dieser Zeitschrift zu publizieren.

Der IF der Zeitschrift, in der eine Publikation erschienen ist, ist nur ein Maßstab unter mehreren. Unterschiedliche Fachgebiete (Disziplinen) sind durch unterschiedliche mittlere Häufigkeiten an Einzelpublikationen (pro Autor) und Impactfaktorhöhen charakterisiert. So ist etwa ein direkter IF-Vergleich z.B. aus dem Bereich Molekularbiologie (viele Zitierungen, typisch hohe IF) mit einem spezialisierten klinischen Fach (z.B. Hals-Nasen-Ohrenheilkunde - wenige Zeitschriften, geringere Zitationshäufigkeit) nicht sinnvoll.

Wichtig bleibt, Publikationen aufmerksam zu lesen und von Fall zu Fall zu bewerten (Kriterien s. unten), um eine individuelle Entscheidung zu treffen, was sie zu einer konkreten Fragestellung beitragen können.

    Um festzustellen, wie glaubhaft und/oder relevant die Ergebnisse und Behauptungen in einer Publikation sind, gibt es eine Reihe von Maßstäben:
 
     Ist eine klare Fragestellung und Zielsetzung erkennbar?

     Wird der Aufbau der Studie den Zielsetzungen gerecht? (Studiendesign)

     Sind die verwendeten Methoden und Maßnahmen adäquat, eindeutig und ausreichend dargestellt?

     Welche statistischen Verfahren wurden angewandt? (Biometrie)

     Sind die Ergebnisse klar und ausreichend dargestellt?

     Werden angemessene Schlussfolgerungen gezogen?

     Ist die zitierte Literatur adäquat und ausreichend?

     In welcher Zeitschrift ist die Arbeit erschienen?
 

>Abbildung: Beispiel einer Originalpublikation

Nur die erste Seite ist gezeigt: Auch die Kurzzusammenfassung (abstract) ist hier in ähnlicher Weise gegliedert wie die gesamte Publikation


Die klare Strukturierung wissenschaftlicher Veröffentlichungen erleichtert es, sie nach den oben genannten Kriterien zu beurteilen. Im Allgemeinen haben Originalpublikationen (=Veröffentlichungen eigener / neuer Forschungsergebnisse im Volltext) folgenden Aufbau:

      Titel der Publikation (title): Kurz, prägnant

      Autoren (Namen, Institutionen, Adressen, genaue Kontaktdaten des corresponding author)

      Zusammenfassung (abstract) mit Zitierdaten (Zeitschrift, Jahrgang, Band-Nr, Seitenzahlen) und Stichworten (key terms)


      Einleitung (background / introduction)
: Der Leser wird in das Thema "hineingezogen"

      Methodenteil (procedures, methods, data management / statistics, Studiendesign) - über methodische Fehlerquellen bei der Vermessung von Blutproben
s. dort

      Ergebnisteil (results)
: Darstellung der gefundenen Daten, übersichtlich organisiert. Meistens ist es von Vorteil, die wichtigsten Daten in Form von Tabellen (tables) darzustellen. Dabei sollen Pseudogenauigkeiten vermieden werden (z.B. Angabe von Mittelwerten auf mehr Stellen als die Meßgenauigkeit hergibt)

      Besprechung (discussion) mit Eingrenzung / Gültigkeitsbereich (limitations), Schlussfolgerungen (conclusions), Ausblick (perspectives)
: Der "philosophische" Teil
 
      In der Arbeit zitierte wissenschaftliche Literatur
(references): Einheitlich formatiert, in der Reihenfolge der Erwähnung im Text oder alphabetisch nach den Namen der Erstautoren
 
Eine wichtige Rolle spielen auch Abbildungen (figures): Sie zeigen z.B. Versuchsanordnungen, fassen Daten in übersichtlicher Form zusammen und geben eine Übersicht über Muster und Zeitverläufe, die mit Text alleine nicht zu vermitteln wären.
 
Auf welche Quellen kann man sich verlassen? Aktuelle Erkenntnisse aus physiologischer und medizinischer Forschung bezieht man (aus den hier dargestellten Gründen) am besten aus probaten wissenschaftlichen Medien (d.h. qualifizierten Fachzeitschriften).

Quellen, die keinen IF aufweisen (z.B. auch frei ins Internet gestellte Texte), haben möglicherweise kein verlässliches Review-Verfahren durchgemacht, ihre Beurteilung ist allein dem Leser überlassen (der damit überfordert sein kann).

Letztlich muss man selbst entscheiden, welche Glaubwürdigkeit und Relevanz einer gegebenen Publikation - unter Berücksichtigung aller hier diskutuerten Kriterien - zukommt. Die Erlangung verlässlicher Erkenntnisse ist jedenfalls kein einfacher, müheloser Prozess - er erfordert eine fundierte Auseinandersetzung mit Inhalten und Methoden sowie Vergleiche mit anderweitiger wissenschaftlicher Literatur (Kontext).
   
Vorstellung und Realität: Wissenschaftliche Modelle
 
Oftmals ist es nicht möglich, eine physiologische / medizinische Fragestellung durch direkte Untersuchung des (vollständigen) in Frage stehenden Systems (im realen Alltagszusammenhang, mit allen Komplikationen und Problemen) zu klären. Die Gründe dafür können vielfältig sein: Ethische (Menschenversuch? Helsinki-Kriterien?), organisatorische (Aufwand? Geräte?), praktische (Ort, Zeit, Kosten?) etc.
 

<Abbildung: Hydrodynamisches Kreislaufmodell
Nach Ursino M, Interaction between carotid baroregulation and the pulsating heart: a mathematical model. Amer J Physiol 1998; 275: H1733-47

Das Modell verhält sich bezüglich bestimmter Eigenschaften ähnlich wie das modellierte System, hier der Kreislauf. Zweck der Modellierung ist u.a. eine Vorhersage von Verhaltensweisen, die u.U. in der Realität nur schwer getestet werden können
 
C = Compliance   F = Strömung   p = Druck   R = Widerstand


In solchen Fällen kann es Vorteile bringen, Untersuchungen an Modellen durchzuführen. Modelle sind Abbildungen von Vorgängen (physiologische Modelle; z.B. Modell der Blutdruckentstehung) oder Gegenständen. Sie bilden Teilaspekte der Realität ab, auf die es in einem bestimmten Zusammenhang ankommt.

Ein Teil der im Original enthaltenen Information geht zwar verloren ('Verkürzungsmerkmal'), aber in den als wesentlich definierten Merkmalen sind sie ihm ähnlich ('Abbildungsmerkmal'). Modelle erfüllen einen bestimmten Zweck ('pragmatisches Merkmal') und sind in Hinblick auf diesen Zweck (auf ihre Eignung) zu beurteilen.

Für die medizinische Forschung ist die Verwendung von Modellen oft unverzichtbar. Modelle benützt man aus praktischen Gründen:

     Sie sind leichter manipulierbar, durchschaubar, finanzierbar, beobachtbar, oder haben andere Vorteile gegenüber dem abgebildeten Original.

     Sie sollen prädiktiven Wert haben, also das Verhalten realer Systeme befriedigend voraussagen (z.B. Wetterprognose).

     Sie können zur Überprüfung von Hypothesen eingesetzt werden, oder zur Entdeckung oder Erklärung von Naturphänomenen (Forschungsmodelle).

Ihrer Natur nach gibt es

      logische (z.B. Computerprogramme) und

      materielle Modelle (z.B. mechanisches Kreislaufmodell).

Je nach Zugang zur Modellbildung unterscheidet man weiters
 
        theoretische Modelle, die auf der Basis vorhandenen Wissens über das modellierte Original konstruiert werden, erklärende Aufgaben erfüllen und Voraussagen über das Systemverhalten erlauben sollen in Situationen, die einer direkten Untersuchung nicht zugänglich sind; und
 
      empirische Modelle ('black-box-Modelle'), die nicht von Systemeigenschaften ausgehen, sondern von der Struktur der vorgefundenen Systemvariablen (z.B. Kurvenanpassung oder Regressivmodelle).

Zur Validierung des Modells werden experimentelle und Simulationsergebnisse verglichen und möglichst in Übereinstimmung gebracht. Schrittweise wird die mindestens nötige Komplexität der Modellstruktur identifiziert, und die Beträge der verwendeten Modellparameter werden feinjustiert.

Bevor aus der Modellsimulation gültige Aussagen gezogen werden können, wird sie validiert, d.h. die Gültigkeit des Modells wird festgestellt: Es darf keine begrifflichen oder logischen Widersprüche geben (innere Validitätskriterien), und der Output muss mit vorhandenen Daten in Einklang stehen (äußere Validitätskriterien). Nur unter laufender Berücksichtigung dieser Kriterien kann das Modell 'reifen', dies ist ein iterativer Prozess.

Optimierung: Das Modell soll so einfach wie möglich, aber auch so komplex wie nötig sein. Ist es zu aufwendig, wird es in der Praxis schwer einsetzbar sein; ist es zu simpel, hat es zu wenig erklärenden bzw. voraussagenden Wert und kann leicht in die Irre führen. Zu weit gehende Abstraktionen oder Idealisierungen können sich sogar kontraproduktiv auswirken ('Modellverliebtheit').
Kein Modell repräsentiert das Original in allen seinen Eigenschaften. So können Fragen, für deren Beantwortung kein befriedigendes Modell existiert (etwa weil man über das reale System zu wenig weiß bzw. dieses zu komplex funktioniert), nur durch Untersuchung des 'Originals' beantwortet werden (z.B. Untersuchung am realen biologischen System statt 'Alternativmethode' wie Computersimulation oder In-vitro-Versuch). Die Untersuchung hochkomplexer Systeme (wie Organismen, Menschen) erfordert die Anwendung biometrischer Prinzipien und ein entsprechendes Studiendesign.
 

 
      Naturwissenschaftliche Forschungspläne enthalten folgende Anteile: Definition von Fragestellung und Problem; Literaturstudium; Hypothesenerstellung; Festlegung von Studienaufbau, Zahl und Art der notwendigen Beobachtungen, Messverfahren; Plan für die statistische Beschreibung, Bearbeitung und Interpretation der anfallenden Daten; finanzielle und ethische Absicherung der Vorgangsweise; Projektdurchführung; Datenmanagement, Statistik, Interpretation der Daten; Verfassen einer Publikation (Studienzweck und -aufbau, Daten und Erkenntnisse, Reflexion vor dem Hintergrund bereits vorhandenen Wissens, belegt mit Zitaten); Einsenden an wissenschaftliche Zeitschrift; Reaktion auf die Kritik der Begutachter; Veröffentlichung
 
      Beobachtungsstudien (analytisch oder deskriptiv) bedürfen keiner Intervention, Interventionsstudien sollten nach Möglichkeit Randomisierungen enthalten. Kontrollgruppen erhalten z.B. ein Placebo, Verumgruppen die Behandlung, deren Wirkung getestet werden soll. Bei Doppelblindstudien wissen weder Proband noch Untersucher, ob im Einzelfall Placebo oder Verum zum Einsatz kommt. Die Gruppen der Untersuchten müssen möglichst gleichmäßig zusammengesetzt sein (Alter, Geschlecht, Gesundheitszustand etc). Unabhängige Variable werden vom Untersucher beeinflusst (z.B. die Dosis einer Hormongabe), abhängige Variable werden gemessen, um die Reaktion auf die Manipulation der unabhängigen Variablen zu verfolgen (z.B. Effekt der verschiedenen Dosierungen)
 
      Um die Bedeutung einer Publikation zur beurteilen, kann man sich am Rang der Zeitschrift orientieren, in der diese erschienen ist. Der Impact Factor (IF) ist eine solche Maßzahl: Sie gibt sie an, wie oft durchschnittlich in einem bestimmten Jahr Publikationen genannt wurden, die in den zwei vorausgegangenen Jahren in der betreffenden Zeitschrift erschienen sind. Jedes Jahr wird für die Zeitschrift ein neuer IF berechnet. Zeitschriften, deren Arbeiten oft zitiert werden, erhalten hohe Impactfaktoren - typischerweise weil für die Beurteilung und Annahme von Publikationen besonders strenge Maßstäbe angelegt werden. Das Review-Verfahren ist ein Qualitätsfilter und Sicherheitsfaktor: Publikationen haben mehrfache hochqualifizierte Fachprüfungen überstanden, bevor sie publik gemacht werden. Die citation half-life ist die Zeit, nach der die Zitierfrequenz auf die Hälfte ihres anfänglichen Wertes absinkt - sie gibt die Nachhaltigkeit an, mit der Publikationen dieses Organs zitiert werden ('Altern' der Information)
 
      Wissenschaftliche Modelle werden erstellt, wenn ethische, organisatorische oder andere Gründe eine direkte Untersuchung des Problems an einem realen System ausschließen. Sie sind leichter manipulierbar, durchschaubar, finanzierbar, beobachtbar, oder haben andere Vorteile gegenüber dem abgebildeten Original. Solche Modelle bilden Teilaspekte der Realität ab, auf die es im gegebenen Zusammenhang ankommt, lassen Hypothesen überprüfen und sollten prädiktiven Wert haben. Man unterscheidet logische (z.B. Computerprogramm) und materielle (mechanisches Modell), theoretische (experimentelle Untersuchung nicht möglich) und empirische Modelle (z.B. Kurvenanpassung). Experimentelle und Simulationsergebnisse sollten möglichst übereinstimmen (Validierung). Ein Modell soll so einfach wie möglich, so komplex wie nötig sein (Optimierung)
 

 

Eine Reise durch die Physiologie


  Die Informationen in dieser Website basieren auf verschiedenen Quellen: Lehrbüchern, Reviews, Originalarbeiten u.a. Sie sollen zur Auseinandersetzung mit physiologischen Fragen, Problemen und Erkenntnissen anregen. Soferne Referenzbereiche angegeben sind, dienen diese zur Orientierung; die Grenzen sind aus biologischen, messmethodischen und statistischen Gründen nicht absolut. Wissenschaft fragt, vermutet und interpretiert; sie ist offen, dynamisch und evolutiv. Sie strebt nach Erkenntnis, erhebt aber nicht den Anspruch, im Besitz der "Wahrheit" zu sein.