Information

Wie kann ich den A595 meiner unbekannten Proben an die Daten anpassen?

Wie kann ich den A595 meiner unbekannten Proben an die Daten anpassen?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Während ich das Bradford-Assay-Experiment durchführte, um die Konzentration meiner Unbekannten zu bestimmen, hatte ich schließlich einen A595 für meine unbekannten Proben, der höher war als der A595 der Standards. Wie kann ich dieses Problem lösen? wünscht… Michael.


Je nachdem, was Sie tun, können Sie Ihre Standardkurve extrapolieren, um die Extinktion Ihrer Proben einzubeziehen. Dies wird jedoch nicht empfohlen, da die Extinktion nur innerhalb eines bestimmten Bereichs linear ist. Am besten verdünnen Sie Ihre Proben so, dass sie in den Bereich der Standardkurve fallen und gleichzeitig sicherstellen, dass Ihre Standardkurve tatsächlich linear ist.


Fehlerbalken in der experimentellen Biologie

Fehlerbalken erscheinen häufig in Zahlen in Publikationen, aber experimentelle Biologen sind sich oft nicht sicher, wie sie verwendet und interpretiert werden sollen. In diesem Artikel veranschaulichen wir einige grundlegende Funktionen von Fehlerbalken und erklären, wie sie bei der Kommunikation von Daten und bei der korrekten Interpretation helfen können. Fehlerbalken können Konfidenzintervalle, Standardfehler, Standardabweichungen oder andere Größen anzeigen. Unterschiedliche Arten von Fehlerbalken liefern ganz unterschiedliche Informationen, und daher müssen Abbildungslegenden deutlich machen, was Fehlerbalken darstellen. Wir schlagen acht einfache Regeln vor, um die effektive Verwendung und Interpretation von Fehlerbalken zu unterstützen.

Wozu dienen Fehlerbalken?

Zeitschriften, die Wissenschaft veröffentlichen – Erkenntnisse, die durch wiederholte Beobachtungen oder Experimente gewonnen wurden – präsentieren nicht nur neue Schlussfolgerungen, sondern auch Beweise, damit die Leser überprüfen können, ob die Argumentation der Autoren richtig ist. Abbildungen mit Fehlerbalken können bei richtiger Verwendung (1–6) Informationen zur Beschreibung der Daten (deskriptive Statistik) oder Informationen darüber geben, welche Schlussfolgerungen oder Inferenzen gerechtfertigt sind (Inferenzstatistik). Diese beiden Grundkategorien von Fehlerbalken werden genau gleich dargestellt, unterscheiden sich jedoch grundlegend. Unser Ziel ist es, grundlegende Eigenschaften von Abbildungen mit allen gängigen Fehlerbalken, wie in Tabelle I zusammengefasst, zu veranschaulichen und zu erklären, wie sie verwendet werden sollten.

Was sagen Ihnen Fehlerbalken?

Beschreibende Fehlerbalken.

Bereich und Standardabweichung (SD) werden für beschreibende Fehlerbalken verwendet, da sie zeigen, wie die Daten gestreut sind (Abb. 1). Bereichsfehlerbalken umfassen die niedrigsten und höchsten Werte. SD wird nach der Formel berechnet

wo x bezieht sich auf die einzelnen Datenpunkte, m ist der Mittelwert, und Σ (Sigma) bedeutet addieren, um die Summe zu finden, für alle n Datenpunkte. SD ist grob der durchschnittliche oder typische Unterschied zwischen den Datenpunkten und ihrem Mittelwert, m. Etwa zwei Drittel der Datenpunkte liegen im Bereich des Mittelwerts ± 1 SD und ∼ 95 % der Datenpunkte liegen innerhalb von 2 SD des Mittelwerts.

Es ist sehr wünschenswert, größere zu verwenden n, um schmalere Inferenzfehlerbalken und genauere Schätzungen der wahren Populationswerte zu erzielen.

Beschreibende Fehlerbalken können auch verwendet werden, um zu sehen, ob ein einzelnes Ergebnis in den normalen Bereich passt. Wenn Sie beispielsweise sehen möchten, ob die Anzahl der roten Blutkörperchen normal ist, können Sie sehen, ob sie innerhalb von 2 SD vom Mittelwert der Gesamtbevölkerung liegt. Weniger als 5 % aller Erythrozytenzahlen sind mehr als 2 SD vom Mittelwert entfernt. Wenn die fragliche Zahl also mehr als 2 SD vom Mittelwert entfernt ist, können Sie dies als abnormal betrachten.

Wenn Sie die Größe Ihrer Stichprobe erhöhen oder das Experiment mehrmals wiederholen, wird der Mittelwert Ihrer Ergebnisse (m) tendiert dazu, dem wahren Mittelwert oder dem Mittelwert der Gesamtbevölkerung μ immer näher zu kommen. Wir können benutzen m als unsere beste Schätzung des unbekannten μ. Wenn Sie ein Experiment immer öfter wiederholen, nähert sich die SD Ihrer Ergebnisse der wahren Standardabweichung (σ) immer mehr an, die Sie erhalten würden, wenn das Experiment unendlich oft oder auf der ganze Bevölkerung. Die SD der experimentellen Ergebnisse wird sich jedoch an annähern, ob n ist groß oder klein. Mögen m, SD ändert sich nicht systematisch, da n ändert sich, und wir können SD als unsere beste Schätzung der Unbekannten σ verwenden, unabhängig vom Wert von n.

Inferenzfehlerbalken.

In der experimentellen Biologie ist es häufiger daran interessiert, Proben aus zwei Gruppen zu vergleichen, um festzustellen, ob sie sich unterscheiden. Sie könnten zum Beispiel Wildtyp-Mäuse mit mutierten Mäusen oder Medikamente mit Placebo oder experimentelle Ergebnisse mit Kontrollen vergleichen. Um Schlussfolgerungen aus den Daten zu ziehen (d. h. um zu beurteilen, ob die Gruppen signifikant unterschiedlich sind oder ob die Unterschiede nur auf zufällige Fluktuation oder Zufall zurückzuführen sind), kann eine andere Art von Fehlerbalken verwendet werden. Dies sind Standardfehler (SE)-Balken und Konfidenzintervalle (CIs). Der Mittelwert der Daten, m, mit SE- oder CI-Fehlerbalken, gibt einen Hinweis auf den Bereich, in dem Sie erwarten können, dass der Mittelwert der gesamten möglichen Ergebnismenge oder der gesamten Population, μ, liegt (Abb. 2). Das Intervall definiert die Werte, die für μ am plausibelsten sind.

Da Fehlerbalken beschreibend oder folgerichtig sein können und jeder der in Tabelle I aufgeführten Balken oder sogar etwas anderes sein können, sind sie bedeutungslos oder irreführend, wenn die Abbildungslegende nicht angibt, um welche Art es sich handelt. Dies führt zur ersten Regel. Regel 1: Beschreiben Sie beim Anzeigen von Fehlerbalken immer in den Legenden der Abbildungen, was sie sind.

Statistische Signifikanztests und P-Werte

Wenn Sie einen statistischen Signifikanztest durchführen, ist das Ergebnis ein P-Wert, wobei P die Wahrscheinlichkeit ist, dass Sie, wenn es wirklich keinen Unterschied gibt, zufällig einen Unterschied erhalten, der so groß ist wie der von Ihnen beobachtete oder sogar noch größer . Wenn andere Dinge (z. B. Stichprobengröße, Variation) gleich sind, führt ein größerer Unterschied in den Ergebnissen zu einem niedrigeren P-Wert, was Sie vermuten lässt, dass es einen echten Unterschied gibt. Konventionell sagen Sie, dass das Ergebnis bei P < 0,05 statistisch signifikant ist, und bei P < 0,01 sagen Sie, das Ergebnis sei hochsignifikant und Sie können sicherer sein, einen wahren Effekt gefunden zu haben. Wie immer bei statistischen Schlussfolgerungen können Sie sich irren! Vielleicht gibt es wirklich keinen Effekt, und Sie hatten das Pech, einen der 5 % (bei P < 0,05) oder 1 % (bei P < 0,01) von Ergebnissätzen zu erhalten, die auf einen Unterschied hindeuten, wo es keinen gibt. Selbst wenn die Ergebnisse statistisch hoch signifikant sind, bedeutet dies natürlich nicht, dass sie unbedingt biologisch wichtig sind. Es ist auch wichtig zu beachten, dass, wenn P > 0,05 ist und Sie daher nicht auf einen statistisch signifikanten Effekt schließen können, Sie möglicherweise nicht darauf schließen können, dass der Effekt null ist. Es kann einen echten Effekt geben, aber er ist gering, oder Sie haben Ihr Experiment möglicherweise nicht oft genug wiederholt, um ihn zu erkennen. Es ist ein häufiger und schwerwiegender Fehler zu schließen, dass „kein Effekt existiert“, nur weil P größer als 0,05 ist. Wenn Sie die Körpergröße von drei männlichen und drei weiblichen Biddelon-Basketballspielern gemessen haben und keinen signifikanten Unterschied feststellen konnten, konnten Sie nicht schlussfolgern, dass das Geschlecht keinen Zusammenhang mit der Körpergröße hat, da eine größere Stichprobe eine solche ergeben könnte. Ein großer Vorteil von inferentiellen Fehlerbalken besteht darin, dass ihre Länge ein grafisches Signal dafür ist, wie viel Unsicherheit in den Daten steckt: Der wahre Wert des von uns geschätzten Mittelwerts könnte plausibel irgendwo im 95 %-KI liegen. Breite Inferenzbalken weisen auf große Fehler hin, kurze Inferenzbalken weisen auf hohe Präzision hin.

Replikate oder unabhängige Stichproben – was ist das? n?

Die Wissenschaft bewältigt die große Variation, die in der Natur auftritt, typischerweise, indem sie eine Zahl misst (n) unabhängiger Stichproben von Individuen, unabhängig durchgeführten Experimenten oder unabhängigen Beobachtungen.

Regel 2: der Wert von n (d. h. die Stichprobengröße oder die Anzahl der unabhängig durchgeführten Experimente) muss in der Abbildungslegende angegeben werden.

Es ist notwendig, dass n (die Anzahl der unabhängigen Ergebnisse) wird sorgfältig von der Anzahl der Wiederholungen unterschieden, was sich auf die Wiederholung der Messung an einem Individuum unter einer einzigen Bedingung oder auf Mehrfachmessungen derselben oder identischer Proben bezieht. Überlegen Sie, ob die Deletion eines Gens bei Mäusen die Schwanzlänge beeinflusst. Wir könnten eine mutierte Maus und einen Wildtyp auswählen und 20 Wiederholungsmessungen von jedem ihrer Schwänze durchführen. Wir könnten die Mittelwerte, SDs und SEs der Wiederholungsmessungen berechnen, aber diese würden uns nicht erlauben, die zentrale Frage zu beantworten, ob eine Gendeletion die Schwanzlänge beeinflusst, weil n würde für jeden Genotyp gleich 1 sein, egal wie oft jeder Schwanz gemessen wurde. Um diese Frage erfolgreich beantworten zu können, müssen wir den möglichen Effekt der Gendeletion von der natürlichen Tier-zu-Tier-Variation unterscheiden n > 1 für jeden Typ.

In ähnlicher Weise kann eine Anzahl von Replikat-Zellkulturen hergestellt werden, indem das gleiche Volumen an Zellen aus der gleichen Stammkultur in benachbarte Vertiefungen einer Gewebekulturplatte pipettiert und anschließend identisch behandelt wird. Obwohl es möglich wäre, die Platte zu testen und die Mittelwerte und Fehler der Replikat-Wells zu bestimmen, würden die Fehler die Genauigkeit des Pipettierens widerspiegeln, nicht die Reproduzierbarkeit der Unterschiede zwischen den experimentellen Zellen und den Kontrollzellen. Für Replikate, n = 1, und es ist daher nicht angebracht, Fehlerbalken oder Statistiken anzuzeigen.

Wenn ein Experiment dreifache Kulturen umfasst und vier unabhängige Male wiederholt wird, dann n = 4, nicht 3 oder 12. Die Variation innerhalb jeder Gruppe von Triplikaten hängt von der Genauigkeit ab, mit der die Replikate erstellt wurden, und ist für die getestete Hypothese irrelevant.

Um den geeigneten Wert für zu ermitteln n, denken Sie an die gesamte Population, die untersucht wird, oder wie die gesamte Reihe von Experimenten aussehen würde, wenn alle möglichen Experimente dieses Typs durchgeführt würden. Schlussfolgerungen können nur über diese Population gezogen werden, stellen Sie also sicher, dass sie für die Frage geeignet sind, die die Forschung beantworten soll.

Im Beispiel von Replikatkulturen aus dem einen Zellbestand ist die Population, von der Proben genommen werden, die Stammzellkultur. Zum n größer als 1 ist, müsste das Experiment unter Verwendung getrennter Stammkulturen oder getrennter Zellklone des gleichen Typs durchgeführt werden. Denken Sie auch hier an die Population, auf die Sie Rückschlüsse ziehen möchten – es ist unwahrscheinlich, dass es sich nur um eine einzelne Aktienkultur handelt. Wenn Sie eine Abbildung mit sehr kleinen Fehlerbalken sehen (wie in Abb. 3), sollten Sie sich fragen, ob die sehr geringe Abweichung, die durch die Fehlerbalken impliziert wird, auf die Analyse von Replikaten und nicht auf unabhängige Stichproben zurückzuführen ist. Wenn dies der Fall ist, sind die Balken nutzlos, um die Schlussfolgerung zu ziehen, die Sie in Betracht ziehen.

Manchmal zeigt eine Abbildung nur die Daten eines repräsentativen Experiments, was bedeutet, dass auch mehrere andere ähnliche Experimente durchgeführt wurden. Wenn ein repräsentatives Experiment gezeigt wird, dann n = 1, und es sollten keine Fehlerbalken oder P-Werte angezeigt werden. Stattdessen sollten die Mittelwerte und Fehler aller unabhängigen Experimente angegeben werden, wobei n ist die Anzahl der durchgeführten Experimente.

Regel 3: Fehlerbalken und Statistiken sollten nur für unabhängig wiederholte Experimente und niemals für Replikate angezeigt werden. Wenn ein „repräsentatives“ Experiment gezeigt wird, sollte es keine Fehlerbalken oder P-Werte haben, da in einem solchen Experiment n = 1 (Abb. 3 zeigt, was nicht zu tun ist).

Welche Art von Fehlerleiste sollte verwendet werden?

Regel 4: Da experimentelle Biologen normalerweise versuchen, experimentelle Ergebnisse mit Kontrollen zu vergleichen, ist es normalerweise angemessen, inferenzielle Fehlerbalken wie SE oder CI anstelle von SD anzuzeigen. Wie auch immer, wenn n ist sehr klein (zum Beispiel n = 3), anstatt Fehlerbalken und Statistiken anzuzeigen, ist es besser, einfach die einzelnen Datenpunkte zu zeichnen.

Was ist der Unterschied zwischen SE-Barren und CIs?

Standardfehler (SE).

Angenommen, drei Experimente lieferten Messwerte von 28,7, 38,7 und 52,6, die die Datenpunkte im n = 3 Fall links in Abb. 1. Der Mittelwert der Daten ist m = 40,0 und SD = 12,0, was die Länge jedes Arms der SD-Stangen ist. m (in diesem Fall 40,0) ist die beste Schätzung des wahren Mittelwerts μ, die wir gerne kennen würden. Aber wie genau ist eine Schätzung? Dies kann durch inferenzielle Fehlerbalken wie Standardfehler (SE, manchmal auch als Standardfehler des Mittelwerts, SEM bezeichnet) oder ein Konfidenzintervall (CI) gezeigt werden. SE ist definiert als SE = SD/√n. In Abb. 4 markieren die großen Punkte die Mittelwerte der gleichen drei Stichproben wie in Abb. 1. Für die n = 3 Fall, SE = 12,0/√3 = 6,93, und dies ist die Länge jedes Arms der gezeigten SE-Balken.

Die SE variiert umgekehrt mit der Quadratwurzel von n, je öfter ein Experiment wiederholt wird oder je mehr Proben gemessen werden, desto kleiner wird der SE (Abb. 4). Dies ermöglicht immer genauere Schätzungen des wahren Mittelwerts μ durch den Mittelwert der experimentellen Ergebnisse, m.

Wir illustrieren und geben Regeln für n = 3 nicht, weil wir empfehlen, so ein kleines zu verwenden n, sondern weil Forscher derzeit oft solche kleinen n Werte und es ist notwendig, ihre Papiere interpretieren zu können. Es ist sehr wünschenswert, größere zu verwenden n, um schmalere Inferenzfehlerbalken und genauere Schätzungen der wahren Populationswerte zu erzielen.

Konfidenzintervall (CI).

Abb. 2 zeigt, was passiert, wenn hypothetisch 20 verschiedene Labore die gleichen Experimente durchführen, mit n = 10 jeweils. Die 95 %-KI-Fehlerbalken betragen ungefähr m ± 2xSE, und sie variieren natürlich in ihrer Position m variiert von Labor zu Labor, und sie variieren auch in der Breite, da SE variiert. Solche Fehlerbalken erfassen den wahren Mittelwert μ in ∼95 % der Fälle – in Abb. 2 enthalten die Ergebnisse von 18 der 20 Labors zufällig μ. Das Problem ist, dass wir im wirklichen Leben μ nicht kennen und wir nie wissen, ob unser Fehlerbalkenintervall in der 95%-Mehrheit liegt und μ enthält, oder ob es durch Pech einer der 5% der Fälle ist, in denen μ einfach verfehlt wird.

Die Fehlerbalken in Abb. 2 sind nur ungefähr m ± 2xSE. Tatsächlich handelt es sich um 95 %-KIs, die von Statistikern entworfen wurden, sodass auf lange Sicht genau 95 % μ erfassen. Um dies zu erreichen, muss das Intervall m ± T(n–1) ×SE, wobei T(n–1) ist ein kritischer Wert aus den Tabellen der T Statistik. Dieser kritische Wert variiert mit n. Zum n = 10 oder mehr ist es ∼2, aber für kleine n es nimmt zu und für n = 3 ist es ∼4. Deswegen m ± 2xSE-Intervalle sind ziemlich gute Annäherungen an 95% CIs, wenn n ist 10 oder mehr, aber nicht für kleine n. CIs kann man sich als SE-Balken vorstellen, die um einen Faktor angepasst wurden (T), damit sie gleich interpretiert werden können, unabhängig davon n.

Diese Relation bedeutet, dass Sie vor Ihrem geistigen Auge leicht zwischen SE-Balken und 95-%-KI wechseln können. Wenn eine Abbildung SE-Balken zeigt, können Sie ihre Breite mental verdoppeln, um ungefähr 95 %-KIs zu erhalten, solange n ist 10 oder mehr. Wie auch immer, wenn n = 3, müssen Sie die SE-Balken mit 4 multiplizieren.

Regel 5: 95 %-KIs erfassen μ in 95 % der Fälle, sodass Sie zu 95 % sicher sein können, dass Ihr Intervall μ enthält. SE-Balken können in der Breite verdoppelt werden, um das ungefähre 95-%-KI zu erhalten, vorausgesetzt n ist 10 oder mehr. Wenn n = 3, SE-Balken müssen mit 4 multipliziert werden, um das ungefähre 95%-KI zu erhalten.

Die Bestimmung von CIs erfordert von den Autoren eines Artikels etwas mehr Berechnung, aber für die Leser erleichtern CIs die Verständlichkeit, da sie unabhängig davon dasselbe bedeuten. n. Aus diesem Grund werden CIs in der Medizin seit mehr als 20 Jahren empfohlen und von vielen Zeitschriften gefordert (7).

Abb. 4 veranschaulicht die Beziehung zwischen SD, SE und 95 % CI. Die Datenpunkte sind als Punkte dargestellt, um die unterschiedlichen Werte von hervorzuheben n (von 3 bis 30). Die Fehlerbalken ganz links zeigen SD, jeweils das gleiche. Die mittleren Fehlerbalken zeigen 95 %-KIs und die Balken rechts zeigen SE-Balken – beide Balkentypen variieren stark mit n, und sind besonders breit für kleine n. Das Verhältnis von CI/SE-Balkenbreite ist T(n–1) die Werte sind unten in der Abbildung angegeben. Beachten Sie auch, dass es für den Leser hilfreich sein kann, unabhängig davon, welche Fehlerbalken angezeigt werden, die einzelnen Datenpunkte anzuzeigen, insbesondere für kleine n, wie in den Abb. 1 und 4 und Regel 4.

Verwenden von Inferenzintervallen zum Vergleichen von Gruppen

Beim Vergleich zweier Ergebnismengen, z. B. aus n KO-Mäuse und n Wildtyp-Mäuse können Sie die SE-Balken oder die 95 %-KIs der beiden Mittelwerte vergleichen (6). Je kleiner die Überlappung der Balken oder je größer die Lücke zwischen den Balken ist, desto kleiner ist der P-Wert und desto stärker ist der Beweis für einen wahren Unterschied. Neben der Angabe, ob die Abbildung SE-Balken oder 95 %-KIs zeigt, ist es wichtig zu beachten n, weil die Regeln, die ungefähr P angeben, für anders sind n = 3 und für n ≥ 10.

Abb. 5 veranschaulicht die Regeln für SE-Balken. Die Tafeln rechts zeigen, was wann gebraucht wird n ≥ 10: eine Lücke gleich SE zeigt P 0,05 an und eine Lücke von 2SE zeigt P ≈ 0,01 an. Um die Lücke zu bewerten, verwenden Sie den durchschnittlichen SE für die beiden Gruppen, d. h. den Durchschnitt eines Arms der C-Balken der Gruppe und eines Arms der E-Balken. Wie auch immer, wenn n = 3 (die von Witzerzählern, Snark-Jägern (8) und experimentellen Biologen geliebte Zahl), muss der P-Wert anders geschätzt werden. In diesem Fall ist P ≈ 0,05, wenn sich die doppelten SE-Balken gerade berühren, was eine Lücke von 2 SE bedeutet.

Regel 6: Wenn n = 3, und die doppelten SE-Balken überlappen sich nicht, P < 0,05, und wenn sich die doppelten SE-Balken gerade berühren, liegt P nahe bei 0,05 (Fig. 5, ganz links). Wenn n 10 oder mehr beträgt, zeigt eine Lücke von SE P 0,05 an und eine Lücke von 2 SE zeigt P ≈ 0,01 an (Fig. 5, rechte Felder).

Regel 5 gibt an, wie sich SE-Balken auf 95 %-KIs beziehen. Die Kombination dieser Beziehung mit Regel 6 für SE-Balken ergibt die Regeln für 95 %-KIs, die in Abb. 6 dargestellt sind n ≥ 10 (rechte Felder), Überlappung der Hälfte eines Armes zeigt P ≈ 0,05 an, und nur Berührung bedeutet P ≈ 0,01. Um die Überlappung zu beurteilen, verwenden Sie den Durchschnitt eines Arms des Intervalls der Gruppe C und eines Arms des E-Intervalls. Wenn n = 3 (linke Felder), P ≈ 0,05, wenn sich zwei Arme vollständig überlappen, sodass jeder Mittelwert ungefähr mit dem Ende des anderen CIs ausgerichtet ist. Wenn die Überlappung 0,5 beträgt, ist P ≈ 0,01.

Regel 7: mit 95 % KIs und n = 3, die Überlappung eines vollen Arms zeigt P 0,05 an und die Überlappung eines halben Arms zeigt P ≈ 0,01 an ( 6 , linke Felder).

Wiederholte Messungen derselben Gruppe

Die in den Fign. 5 und 6 gelten, wenn die Mittel unabhängig sind. Wenn zwei Messungen korreliert sind, wie zum Beispiel bei Tests zu unterschiedlichen Zeitpunkten an derselben Tiergruppe oder kinetischen Messungen derselben Kulturen oder Reaktionen, liefern die CIs (oder SEs) nicht die Informationen, die erforderlich sind, um die Signifikanz der Unterschiede zu beurteilen zwischen Mittelwerten derselben Gruppe zu unterschiedlichen Zeiten, da sie nicht auf Korrelationen innerhalb der Gruppe reagieren. Betrachten Sie das Beispiel in Abb. 7, in dem Gruppen unabhängiger experimenteller und Kontrollzellkulturen jeweils viermal gemessen werden. Fehlerbalken können nur verwendet werden, um die Versuchs- und Kontrollgruppen zu einem bestimmten Zeitpunkt zu vergleichen. Unabhängig davon, ob es sich bei den Fehlerbalken um 95 %-KIs oder SE-Balken handelt, können sie nur zur Bewertung zwischen Gruppenunterschieden (z. B. E1 vs. C1, E3 vs. C3) und nicht zur Bewertung innerhalb von Gruppenunterschieden verwendet werden, wie z. B. E1 gegen E2.

Die Bewertung einer Differenz innerhalb der Gruppe, beispielsweise E1 vs. E2, erfordert eine Analyse, die die Korrelation innerhalb der Gruppe berücksichtigt, beispielsweise eine Wilcoxon- oder gepaarte t-Analyse. Ein grafischer Ansatz würde erfordern, den Unterschied zwischen E1 und E2 für jede Kultur (oder jedes Tier) in der Gruppe zu ermitteln und dann den einzelnen Mittelwert dieser Unterschiede mit Fehlerbalken, die dem SE oder 95 %-KI aus diesen Unterschieden berechnet wurden, grafisch darzustellen. Wenn dieses 95 %-KI 0 nicht enthält, besteht ein statistisch signifikanter Unterschied (P < 0,05) zwischen E1 und E2.

Regel 8: bei wiederholten Messungen an derselben Gruppe (z. B. an Tieren, Individuen, Kulturen oder Reaktionen) sind CIs oder SE-Balken für Vergleiche innerhalb derselben Gruppe irrelevant (Abb. 7).

Abschluss

Fehlerbalken können wertvoll sein, um die Ergebnisse eines Zeitschriftenartikels zu verstehen und zu entscheiden, ob die Schlussfolgerungen der Autoren durch die Daten gerechtfertigt sind. Es gibt jedoch Fallstricke. Wenn Sie zum ersten Mal eine Figur mit Fehlerbalken sehen, fragen Sie sich: „Was ist? n? Sind es unabhängige Experimente oder nur Replikate?“ und „Was sind das für Fehlerbalken?“ Wenn Ihnen die Zahlenlegende zufriedenstellende Antworten auf diese Fragen gibt, können Sie die Daten interpretieren, aber denken Sie daran, dass Fehlerbalken und andere Statistiken nur eine Orientierungshilfe sein können: Sie müssen auch Ihr biologisches Verständnis nutzen, um die Bedeutung der Zahlen in jedem zu verstehen Abbildung.


Einführung

Deep-Learning-Techniken haben in letzter Zeit insbesondere bei Seh- und Sprachanwendungen bemerkenswerte Erfolge erzielt [1, 2]. Insbesondere moderne Deep-Generative-Modelle können aus niedrigdimensionalen latenten Variablen realistische Bilder oder Sätze generieren [3]. Die generierten Bild- und Textdaten sind oft kaum von echten Daten zu unterscheiden, und die Datengenerierungsleistung verbessert sich schnell [4, 5]. Die beiden am weitesten verbreiteten Arten von tiefen generativen Modellen sind Variational Autoencoder (VAEs) und Generative Adversarial Networks (GANs). VAEs verwenden einen Bayes-Ansatz, um die Posterior-Verteilung eines probabilistischen Encoder-Netzwerks basierend auf einer Kombination von Rekonstruktionsfehler und der vorherigen Wahrscheinlichkeit der codierten Verteilung zu schätzen [6]. Im Gegensatz dazu besteht das GAN-Framework aus einem Zwei-Spieler-Spiel zwischen einem Generator-Netzwerk und einem Diskriminator-Netzwerk [7]. GANs und VAEs besitzen komplementäre Stärken und Schwächen: GANs generieren viel bessere Samples als VAEs [8], aber das VAE-Training ist viel stabiler und lernt nützlichere „entwirrte“ latente Repräsentationen [9]. GANs übertreffen VAEs bei der Erzeugung scharfer Bildmuster [7], während VAEs dazu neigen, verschwommene Bilder zu erzeugen [10]. Das GAN-Training ist im Allgemeinen weniger stabil als das VAE-Training, aber einige neuere Ableitungen von GAN wie Wasserstein GAN [11–13] verbessern die Stabilität des GAN-Trainings signifikant, was insbesondere für Nicht-Bilddaten hilfreich ist.

Das Erreichen einer Eigenschaft namens „Entflechtung“, bei der jede Dimension der latenten Repräsentation einen semantisch unterschiedlichen Variationsfaktor steuert, ist ein Schwerpunkt der neueren Forschung zu tiefen generativen Modellen [14–20]. Die Entflechtung ist wichtig, um die Datenerzeugung zu kontrollieren und auf unsichtbare Kombinationen latenter Variablen zu verallgemeinern. Beispielsweise ermöglichen entwirrte Darstellungen von Bilddaten die Vorhersage von Zwischenbildern [21] und das Mischen von Bildstilen [22]. Aus Gründen, die nicht vollständig verstanden werden, lernen VAE im Allgemeinen Darstellungen, die stärker entwirrt sind als andere Ansätze [23–28]. Die hochmodernen Methoden zum Erlernen entwirrter Darstellungen machen sich diesen Vorteil zunutze, indem sie modifizierte VAE-Architekturen verwenden, die die Entflechtung weiter verbessern, einschließlich β-VAE, FaktorVAE und β-TCVAE [9, 29–31]. Im Gegensatz dazu ist der latente Raum des traditionellen GAN stark verschränkt. Einige modifizierte GAN-Architekturen, wie InfoGAN [32], fördern die Entflechtung mit rein unbeaufsichtigten Techniken, aber diese Ansätze entsprechen immer noch nicht der Entflechtungsleistung von VAEs [33–40].

Die Entflechtungsleistung wird in der Regel quantitativ anhand von Standardbilddatensätzen mit bekannten Ground-Truth-Variationsfaktoren bewertet [41–44]. Darüber hinaus können entwirrte Darstellungen qualitativ bewertet werden, indem man Traversierungen oder lineare Arithmetik im Latentraum durchführt und die resultierenden Bilder visuell inspiziert [45–49].

In letzter Zeit hat die Molekularbiologie das schnelle Wachstum von Einzelzell-RNA-seq-Technologien erlebt, die die Expressionsniveaus aller Gene in Tausenden bis Millionen von Zellen messen können [50]. Wie Bilddaten, für die sich tiefe generative Modelle als so erfolgreich erwiesen haben, sind einzellige RNA-seq-Datensätze groß und hochdimensional. Daher ist es wahrscheinlich, dass Deep Learning für Einzelzellendaten hilfreich sein wird. Insbesondere tiefe generative Modelle sind vielversprechend, um semantisch unterschiedliche Facetten zellulärer Identität zu destillieren und unsichtbare Zellzustände vorherzusagen.

Mehrere Arbeiten haben bereits VAEs [51–61] und GANs [62] auf Einzelzelldaten angewendet. Eine repräsentative VAE-Methode ist scGen, die dieselbe Zielfunktion verwendet wie β-VAE [9]. Die gelernten latenten Werte in scGen werden für Out-of-Sample-Vorhersagen durch Latentraum-Arithmetik verwendet. Das cscGAN-Papier adaptiert den Wasserstein-GAN-Ansatz für Einzelzelldaten und zeigt, dass er realistische Genexpressionsprofile generieren kann und schlägt vor, ihn zur Datenerweiterung zu verwenden.

Die Bewertung der Entflechtungsleistung von Modellen auf Einzelzelldaten ist schwieriger als bei Bilddaten, da Menschen die Daten nicht intuitiv verstehen können, indem sie sie wie bei Bildern betrachten. Frühere Ansätze wie scGen haben implizit die Eigenschaften entwirrter Darstellungen verwendet [51], aber die Entflechtungsleistung wurde nicht rigoros an Einzelzelldaten bewertet.

Hier bewerten wir systematisch die Entflechtungs- und Generierungsleistung von tiefen generativen Modellen auf Einzelzell-RNA-seq-Daten. Wir zeigen, dass die komplementären Stärken und Schwächen von VAEs und GANs für Einzelzelldaten ähnlich wie für Bilddaten gelten. Wir entwickeln MichiGAN, ein neuronales Netzwerk, das die Stärken von VAEs und GANs kombiniert, um aus entwirrten Darstellungen Stichproben zu machen, ohne die Qualität der Datengenerierung zu beeinträchtigen. Wir verwenden MichiGAN und andere Methoden auf simulierte Einzelzell-RNA-seq-Daten [63, 64] und bieten quantitative Vergleiche durch mehrere Entflechtungsmetriken [29, 30]. Wir lernen auch entwirrte Darstellungen von drei realen Einzelzell-RNA-seq-Datensätzen [65–67] und zeigen, dass die entwirrten Darstellungen semantisch unterschiedliche Aspekte der Zellidentität kontrollieren und unsichtbare Kombinationen von Zellzuständen vorhersagen können.

Unsere Arbeit baut auf der von Lotfollahi et al. [51], die zeigten, dass eine einfache VAE (die sie scGen nannten) Einzelzell-Störungsreaktionen vorhersagen kann. Sie zeigten auch mehrere spezifische biologische Kontexte auf, in denen diese Art von Ansatz nützlich ist. Erstens sagten sie die zelltypspezifischen Genexpressionsänderungen voraus, die durch die Behandlung von Immunzellen mit Lipopolysaccharid induziert werden. Zweitens sagten sie die zelltypspezifischen Veränderungen voraus, die auftreten, wenn Darmepithelzellen durch Salmonellen oder Heligmosomoides polygyrus. Schließlich zeigten sie, dass scGen Mausdaten verwenden kann, um Störungsreaktionen in menschlichen Zellen oder in anderen Spezies vorherzusagen. Für solche Aufgaben kann man aus den generierten scRNA-Seq-Profilen signifikante biologische Erkenntnisse gewinnen.

Unsere Methode MichiGAN kann die gleichen Vorhersagen machen und die gleichen biologischen Erkenntnisse liefern wie scGen, aber wir zeigen, dass MichiGAN im Vergleich zu scGen signifikante Vorteile hat (einschließlich Entflechtung und Datengenerierungsleistung). Darüber hinaus zeigen wir, dass MichiGAN das Ansprechen einzelner Zellen auf eine medikamentöse Behandlung vorhersagen kann, eine biologische Anwendung, die in der scGen-Veröffentlichung nicht gezeigt wurde.


Was ist eine Kalibrierkurve? (mit Bild)

Eine Kalibrationskurve ist eine Methode, die in der analytischen Chemie verwendet wird, um die Konzentration einer unbekannten Probenlösung zu bestimmen. Es ist ein experimentell erzeugter Graph, bei dem die Konzentration der Lösung auf der x-Achse und die beobachtbare Variable – zum Beispiel die Extinktion der Lösung – auf der y-Achse aufgetragen ist. Die Kurve wird erstellt, indem die Konzentration und Extinktion mehrerer vorbereiteter Lösungen gemessen werden, die als Kalibrierstandards bezeichnet werden. Nachdem die Kurve gezeichnet wurde, kann die Konzentration der unbekannten Lösung bestimmt werden, indem sie auf der Grundlage ihrer Extinktion oder einer anderen beobachtbaren Variablen auf die Kurve gelegt wird.

Chemische Lösungen absorbieren je nach Konzentration unterschiedlich viel Licht. Diese Tatsache wird in einer Gleichung quantifiziert, die als Beersches Gesetz bekannt ist und eine lineare Beziehung zwischen der Lichtabsorption einer Lösung und ihrer Konzentration zeigt. Forscher können die Absorption einer Lösung mit einem Laborinstrument namens Spektrophotometer messen. Dieser Vorgang wird insgesamt als Spektrophotometrie bezeichnet.

Spektrophotometrie kann nützlich sein, um die Konzentration einer unbekannten Lösung zu bestimmen. Wenn ein Forscher beispielsweise eine Probe von Flusswasser hat und deren Bleigehalt wissen möchte, kann er diesen bestimmen, indem er mit einem Spektralfotometer eine Kalibrierungskurve erstellt. Zunächst erstellt der Forscher mehrere Standardlösungen von Blei, die von weniger bis hin zu konzentrierter reichen. Diese Proben werden in das Spektrophotometer gegeben, das für jede eine andere Extinktion aufzeichnet.

Die experimentell ermittelten Extinktionswerte werden in einem Diagramm gegen die bekannte Konzentration jedes Kalibrierstandards aufgetragen. Es entsteht eine Punktmenge, die im Fall der Extinktion aufgrund des Beerschen Gesetzes ungefähr linear sein sollte. Eine Linie wird gezogen, um diese Datenpunkte zu verbinden und die Kalibrierungskurve zu bilden. In fast allen Fällen sind die Datenpunkte mathematisch nicht exakt, daher sollte die Linie so gezogen werden, dass sie die maximale Anzahl von Punkten durchschneidet – es ist eine Linie mit der besten Anpassung. Obwohl die Beziehung zwischen Extinktion und Konzentration linear ist, gilt dies nicht immer für andere experimentell bestimmte Variablen, und gelegentlich müssen Kurven verwendet werden, um die Beziehung zu beschreiben.

In diesem Stadium kann die unbekannte Lösung analysiert werden. Die Probe wird in das Spektrophotometer eingeführt und ihre Extinktion wird gemessen. Da diese Probe gegen mehrere Standards mit derselben Verbindung gemessen wird, müssen ihre Extinktion und Konzentration irgendwo entlang der Eichkurve für diese Verbindung liegen. Das bedeutet, dass, sobald die Extinktion der Lösung bekannt ist, ihre Konzentration mathematisch oder grafisch abgeleitet werden kann.

Aus dem y-Wert der unbekannten Lösung – ihrer gerade gemessenen Extinktion – kann eine horizontale Linie gezogen werden. Der Punkt, an dem die Linie die Kalibrierkurve schneidet, zeigt den x-Wert an – die Konzentration. Eine senkrechte Linie, die von diesem Punkt nach unten gezogen wird, gibt die Konzentration der unbekannten Lösung an. Die Gleichung für die Linie der Kalibrierkurve kann auch zur mathematischen Bestimmung der Konzentration der Lösung verwendet werden.


Inhalt

Im allgemeineren Gebrauch ist eine Kalibrierungskurve eine Kurve oder Tabelle für ein Messgerät, das einen Parameter indirekt misst und Werte für die gewünschte Größe als Funktion der Werte der Sensorausgabe angibt. Beispielsweise kann für einen bestimmten Druckwandler eine Kalibrierkurve erstellt werden, um den angelegten Druck aus dem Wandlerausgang (einer Spannung) zu bestimmen. [3] Eine solche Kurve wird normalerweise verwendet, wenn ein Instrument einen Sensor verwendet, dessen Kalibrierung von Probe zu Probe variiert oder sich mit der Zeit oder Verwendung ändert, wenn die Sensorausgabe konsistent ist, würde das Instrument direkt in Bezug auf die gemessene Einheit gekennzeichnet.

Die Daten – die Konzentrationen des Analyten und die Gerätereaktion für jeden Standard – können mit Hilfe der linearen Regressionsanalyse an eine Gerade angepasst werden. Dies ergibt ein Modell, das durch die Gleichung beschrieben wird y = mx + y0, wo ja ist die Instrumentenantwort, m stellt die Empfindlichkeit dar, und ja0 ist eine Konstante, die den Hintergrund beschreibt. Die Analytkonzentration (x) von unbekannten Proben kann aus dieser Gleichung berechnet werden.

Als analytisches Signal können viele verschiedene Variablen verwendet werden. Zum Beispiel könnte Chrom (III) unter Verwendung eines Chemilumineszenzverfahrens in einem Instrument gemessen werden, das eine Photomultiplier-Röhre (PMT) als Detektor enthält. Der Detektor wandelt das von der Probe erzeugte Licht in eine Spannung um, die mit der Lichtintensität zunimmt. Die gemessene Lichtmenge ist das analytische Signal.

Die meisten analytischen Techniken verwenden eine Kalibrierungskurve. Dieser Ansatz hat eine Reihe von Vorteilen. Erstens bietet die Kalibrationskurve eine zuverlässige Methode zur Berechnung der Unsicherheit der Konzentration, die aus der Kalibrationskurve berechnet wurde (unter Verwendung der Statistik der Linienanpassung der kleinsten Quadrate an die Daten). [4] [5]

Zweitens liefert die Kalibrierungskurve Daten über eine empirische Beziehung. Der Mechanismus für die Reaktion des Instruments auf den Analyten kann gemäß einem theoretischen Modell vorhergesagt oder verstanden werden, aber die meisten dieser Modelle haben einen begrenzten Wert für reale Proben. (Die instrumentelle Reaktion hängt normalerweise stark vom Zustand des Analyten, den verwendeten Lösungsmitteln und den darin enthaltenen Verunreinigungen ab und kann auch durch externe Faktoren wie Druck und Temperatur beeinflusst werden.)

Viele theoretische Zusammenhänge, wie die Fluoreszenz, erfordern ohnehin die Bestimmung einer instrumentellen Konstanten, durch die Analyse eines oder mehrerer Referenzstandards ist eine Kalibrierkurve eine bequeme Erweiterung dieses Ansatzes. Die Kalibrierungskurve für einen bestimmten Analyten in einer bestimmten Probe (Typ) liefert die empirische Beziehung, die für diese bestimmten Messungen benötigt wird.

Die Hauptnachteile sind (1), dass die Standards eine Zufuhr des Analytmaterials erfordern, vorzugsweise von hoher Reinheit und in bekannter Konzentration, und (2) dass die Standards und das Unbekannte in derselben Matrix vorliegen. Einige Analyten – z. B. bestimmte Proteine ​​– sind äußerst schwer in ausreichender Menge rein zu gewinnen. Andere Analyten befinden sich oft in komplexen Matrices, z. B. Schwermetalle im Teichwasser. In diesem Fall kann die Matrix das Signal des Analyten stören oder abschwächen. Daher ist ein Vergleich zwischen den Standards (die keine störenden Verbindungen enthalten) und dem Unbekannten nicht möglich. Die Methode der Standardaddition ist eine Möglichkeit, mit einer solchen Situation umzugehen.

Erwartungsgemäß weist die Konzentration des Unbekannten einen Fehler auf, der aus der folgenden Formel berechnet werden kann. [6] [7] [8] Diese Formel geht davon aus, dass für alle Standards ein linearer Zusammenhang beobachtet wird. Es ist wichtig zu beachten, dass der Konzentrationsfehler minimal ist, wenn das Signal des Unbekannten in der Mitte der Signale aller Standards liegt (der Term y u n k − y ¯ -<ar >> geht auf Null, wenn y u n k = y ¯ =<ar >> )


P-Wert aus t-Test

Denken Sie daran, dass der p-Wert die Wahrscheinlichkeit ist (berechnet unter der Annahme, dass die Nullhypothese wahr ist), dass die Die Teststatistik liefert Werte, die mindestens so extrem sind wie der T-Score für Ihre Stichprobe. Da Wahrscheinlichkeiten Flächen unter der Dichtefunktion entsprechen, lässt sich der p-Wert aus dem t-Test mit Hilfe der folgenden Bilder schön veranschaulichen:

Die folgenden Formeln geben an, wie der p-Wert aus dem t-Test berechnet wird. Von cdft,d wir bezeichnen die Verteilungsfunktion der t-Student-Verteilung mit d Freiheitsgraden:

p-Wert von Linksschwanz t-Test:

p-Wert von Rechtsschwanz t-Test:

p-Wert von zweischwänzig t-Test:

oder äquivalent: p-Wert = 2 - 2 * cdft,d(|tSpielstand|)

Der cdf der t-Verteilung wird jedoch durch eine etwas komplizierte Formel angegeben. Um den p-Wert von Hand zu finden, müssen Sie auf statistische Tabellen zurückgreifen, in denen ungefähre cdf-Werte gesammelt werden, oder auf spezialisierte Statistiksoftware. Glücklicherweise ermittelt unser t-Test-Rechner den p-Wert aus t-Test im Handumdrehen für Sie!


ELISA-Analyse

  • Qualitativer ELISA bestimmt nur, ob das Antigen in der Probe vorhanden ist oder nicht. Es erfordert eine leere Vertiefung, die kein Antigen oder ein nicht verwandtes Kontrollantigen enthält.
  • Semiquantitativer ELISA ermöglicht den relativen Vergleich der Antigenspiegel zwischen den Proben.
  • Quantitativer ELISA ermöglicht die Berechnung der in der Probe vorhandenen Antigenmenge. Es erfordert einen Vergleich der für die Proben gemessenen Werte mit einer Standardkurve, die aus einer seriellen Verdünnung eines gereinigten Antigens in einer bekannten Konzentration erstellt wurde. Dies sind die am häufigsten berichteten ELISA-Daten.

ELISA-Standardkurve
​​
Die Standard- oder Kalibrierungskurve ist das Element des quantitativen ELISA, das die Berechnung der Antigenkonzentration in der Probe ermöglicht.
Die Standardkurve wird durch Auftragen bekannter Konzentrationen eines Referenzantigens gegen die für jede Konzentration erhaltene Anzeige (normalerweise optische Dichte bei 450 nm) abgeleitet.
Die meisten ELISA-Plattenlesegeräte enthalten eine Software zur Kurvenanpassung und Datenanalyse. Die Konzentration des Antigens in der Probe wird durch Extrapolation des linearen Teils der Standardkurve berechnet.​

Abbildung 1: Beispiel einer quantitativen ELISA-Standardkurve aus dem Human ICAM1 SimpleStep ELISA® Kit (ab174445).

Kurvenanpassungssoftware ermöglichen Verwenden Sie verschiedene Modelle, um Ihre Daten darzustellen.


Wie kann ich den A595 meiner unbekannten Proben an die Daten anpassen? - Biologie

Wasserchemie II: Spektrophotometrie und Standardkurven

Standardkurven sind Diagramme der Lichtabsorption gegen die Lösungskonzentration, die verwendet werden können, um die Konzentration des gelösten Stoffes in unbekannten Proben zu bestimmen. Wir erzeugten eine Standardkurve für eine Reihe von Albuminproben.

Interpretieren einer Standardkurve

Ein Spektralfotometer misst die Lichtmenge. Sie gibt an, wie viel Licht durch eine Lösung geht (Durchlässigkeit) oder wie viel Licht von einer Lösung absorbiert wird (Absorption).

Wenn Sie die Extinktion gegen die Konzentration für eine Reihe bekannter Lösungen grafisch darstellen, wird die Linie oder Standardkurve, die zu Ihren Punkten passt, kann verwendet werden, um die Konzentrationen einer unbekannten Lösung zu ermitteln. Die Absorption, die abhängige Variable, wird auf der y-Achse (der vertikalen Achse) platziert. Auf der x-Achse ist die Konzentration, die unabhängige Variable (weil sie von Ihnen beim Aufbau des Experiments eingestellt wurde) aufgetragen. Wenn Sie die Extinktion einer unbekannten Probe messen, finden Sie den y-Wert auf der Standardkurve. Gehen Sie dann nach unten, um zu sehen, welche Konzentration dazu passt. Fahren Sie mit der Maus über das Diagramm unten, um ein Beispiel dafür zu sehen.

Unten ist eine Standardkurve, die aus Extinktionsdaten erstellt wurde, ähnlich der, die wir in der Klasse erstellt haben. Beachten Sie, dass mit steigender Konzentration auch die Absorption zunimmt. Während Sie die Konzentration einer Unbekannten durch bloßes Betrachten des Diagramms schätzen können, ist eine genauere Methode zur Bestimmung der Konzentration die Verwendung der Liniengleichung, die zu Ihren Datenpunkten passt. Diese Gleichung wird in der y-Achsenabschnittsform angegeben: y=mx+b
wobei m die Steigung der Linie und b der y-Achsenabschnitt ist (wo die Linie die y-Achse berührt).

Die Gleichung y=mx+b kann hier übersetzt werden als "Absorption gleich Steigung mal Konzentration plus dem y-Achsen-Absorptionswert". Die Steigung und der y-Achsenabschnitt werden Ihnen bereitgestellt, wenn der Computer eine Linie an Ihre Standardkurvendaten anpasst. Die Extinktion (oder y) ist das, was Sie von Ihrem Unbekannten messen. Sie müssen also nur diese drei Zahlen in die Gleichung einfügen und nach x (Konzentration) auflösen.

Ein Beispiel: Die Extinktion (y) Ihres Unbekannten beträgt 6,00
Basierend auf der untenstehenden Kurve, Steigung (m) = 8 und b = 0
wenn y=mx+b dann 6.00 = 8*x + 0
und 6/8=x
und 0,75=x
die Konzentration des Unbekannten würde also 75% des ursprünglichen Vorrats betragen, der 100 ug/ml betrug. 75% von 100 ug/ml = 75 ug/ml Konzentration.

Die Einheiten in der nachstehenden Grafik sind die Extinktion (y) gegen den Verdünnungsfaktor (x) jeder verwendeten Lösung (0 = Wasser bis 1 = unverdünnte Stammlösung).


Verwenden der Liniengleichung zum Berechnen unbekannter Abtastwerte

Damit hast du jetzt die Gleichung für die Gerade. Um auf dieser Basis unbekannte Werte zu bestimmen, würde es in diesem Beispiel also Hintergrund-korrigierte Extinktionswerte für unbekannte Proben verwenden (‘y’), um die Gesamtproteinkonzentration (‘x‘), müssen Sie die Gleichung neu organisieren, um zu bestimmen, was ‘x' ist. Machen wir das im Beispiel:

Jetzt können Sie einfach die neu angeordnete Gleichung verwenden, um das ‘ja„Werte, um zu erarbeiten“x‘. Nehmen wir als Beispiel an, wir haben eine Probe, deren Gesamtproteinkonzentration wir nicht kennen. Wir messen die Extinktion der Probe bei 562 nm und subtrahieren den Hintergrundwert, um das Hintergrundsignal zu berücksichtigen. Die Probe hat eine hintergrundkorrigierte Extinktion von ‘0.497‘. Das wäre unser ‘ja‘ Wert in der Gleichung. Die Eingabe würde ergeben:

Die Gesamtproteinkonzentration für die unbekannte Probe ist also „550,33 μg/ml‘.


Kalibrierkurven

Kalibrierkurven werden verwendet, um die instrumentelle Reaktion auf einen Analyten zu verstehen und die Konzentration in einer unbekannten Probe vorherzusagen. Im Allgemeinen wird ein Satz von Standardproben in verschiedenen Konzentrationen mit einem Bereich hergestellt, der die interessierende Unbekannte umfasst, und die instrumentelle Reaktion bei jeder Konzentration wird aufgezeichnet. Um die Genauigkeit zu erhöhen und den Fehler zu verstehen, kann die Reaktion bei jeder Konzentration wiederholt werden, sodass ein Fehlerbalken erhalten wird. Die Daten werden dann mit einer Funktion angepasst, so dass unbekannte Konzentrationen vorhergesagt werden können. Typically the response is linear, however, a curve can be made with other functions as long as the function is known. The calibration curve can be used to calculate the limit of detection and limit of quantitation.

When making solutions for a calibration curve, each solution can be made separately. However, that can take a lot of starting material and be time consuming. Another method for making many different concentrations of a solution is to use serial dilutions. With serial dilutions, a concentrated sample is diluted down in a stepwise manner to make lower concentrations. The next sample is made from the previous dilution, and the dilution factor is often kept constant. The advantage is that only one initial solution is needed. The disadvantage is that any errors in solution making—pipetting, massing, etc.—get propagated as more solutions are made. Thus, care must be taken when making the initial solution.

Grundsätze

Calibration curves can be used to predict the concentration of an unknown sample. To be completely accurate, the standard samples should be run in the same matrix as the unknown sample. A sample matrix is the components of the sample other than the analyte of interest, including the solvent and all salts, proteins, metal ions, etc. that might be present in the sample. In practice, running calibration samples in the same matrix as the unknown is sometimes difficult, as the unknown sample may be from a complex biological or environmental sample. Thus, many calibration curves are made in a sample matrix that closely approximates the real sample, such as artificial cerebral spinal fluid or artificial urine, but may not be exact. The range of concentrations of the calibration curve should bracket that in the expected unknown sample. Ideally a few concentrations above and below the expected concentration sample are measured.

Many calibration curves are linear and can be fit with the basic equation y=mx+b, where m is the slope and b is the y-intercept. However, not all curves are linear and sometimes to get a line, one or both set of axes will be on a logarithmic scale. Linear regression is typically performed using a computer program and the most common method is to use a least squares fitting. With a linear regression analysis, an R 2 value, called the coefficient of determination, is given. For a simple single regression, R 2 is the square of the correlation coefficient (r) and provides information about how far away the y values are from the predicted line. A perfect line would have an R 2 value of 1, and most R 2 values for calibration curves are over 0.95. When the calibration curve is linear, the slope is a measure of sensitivity: how much the signal changes for a change in concentration. A steeper line with a larger slope indicates a more sensitive measurement. A calibration curve can also help define the linear range, the range of concentrations that the instrument gives a linear response. Outside this range, the response may taper off due to instrumental considerations, and the equation from the calibration cannot be used. This is known as the limit of linearity.

Limit of detection is the lowest amount that can be statistically determined from the noise. Generally this is defined as a signal that is 3 times the noise. The limit of detection can be calculated from the slope of the calibration curve and is generally defined as LOD=3*S.D./m, where S.D. is the standard deviation of the noise. The noise is measured by taking the standard deviation of multiple measurements. Alternatively, in one trace, noise can be estimated as the standard deviation of the baseline. The limit of quantitation is the amount that can be differentiated between samples and is usually defined as 10 times the noise.

Abonnement erforderlich. Bitte empfehlen Sie JoVE Ihrem Bibliothekar.

Verfahren

1. Making the Standards: Serial Dilutions

  1. Make a concentrated stock solution of the standard. Typically, the compound is accurately weighed out and then quantitatively transferred into a volumetric flask. Add some solvent, mix so the sample dissolves, then fill to the line with the proper solvent.
  2. Perform serial dilutions. Take another volumetric flask and pipette the amount of standard needed for the dilution, then fill to the line with solvent and mix. A ten-fold dilution is typically made, so for a 10-mL volumetric flask, add 1 mL of the previous dilution.
  3. Continue as needed for more dilutions, pipetting from the previous solution to dilute it to make the next sample. For a good calibration curve, at least 5 concentrations are needed.

2. Run the Samples for the Calibration Curve and the Unknown

  1. Run the samples with the UV-Vis spectrophotometer to determine the instrumental response needed for the calibration curve.
  2. Take the reading with the first sample. It is a good idea to run the samples in random order (d.h. not highest to lowest or lowest to highest) in case there are any systematic errors. In order to get an estimate of noise, repeat the reading on any given sample 3𔃃x.
  3. Run the additional standard samples, repeating the measurements for each sample to get an estimate of noise. Record the data to make a plot later.
  4. Run the unknown sample(s). Use as similar conditions to running the standards as possible. Thus, the sample matrix or buffer should be the same, the pH should be the same, and the concentration should be in the range of the standards run.

3. Making the Calibration Curve

  1. Record the data in a spreadsheet and use a computer program to plot the data vs concentration. If at least triplicate measurements were taken for each point, error bars can be plotted of the standard deviation of those measurements to estimate of the error of each point. For some curves, the data might need to be plotted with an axis as a log to get a line. The equation that governs the calibration curve is generally known ahead of time, so a log-plot is used when there is a log in the equation.
  2. Examine the calibration curve. Does it look linear? Does it have a portion that looks non-linear (d.h. reached the limit of the instrumental response)? To check, fit all the data to a linear regression using the software. If the coefficient of determination (R 2 ) is not high, remove some of the points at the beginning or ending of the curve that do not appear to fit the line and perform the linear regression again. It is not acceptable to remove points in the middle just because they have a large error bar. From this analysis, decide what portion of the curve is linear.
  3. The output of the linear should be an equation of the format y=mx+b, where m is the slope and b is the y-intercept. The units for the slope are the y-axis unit/concentration, in this example (Abbildung 1) absorbance/μM. The units for the y-intercept are the y-axis units. A coefficient of determination (R 2 ) is obtained. The higher the R 2 the better the fit a perfect fit gives an R 2 of 1. The program may also be able to give an estimate of the error on the slope and the intercept.

4. Results: Calibration Curve of Absorbance of Blue Dye #1

  1. The calibration curve for absorbance of blue dye #1 (at 631 nm) is shown below (Abbildung 1). The response is linear from 0 to 10 µM. Above that concentration the signal begins to level off because the response is out of the linear range of the UV-Vis spectrophotometer.
  2. Calculate the LOD. From the slope of the calibration curve, the LOD is 3*S.D. (noise)/m. For this calibration curve, the noise was obtained by taking a standard deviation of repeated measurements and was 0.021. The LOD would be 3*0.021/.109=0.58 µM.
  3. Calculate the LOQ. The LOQ is 10*S.D.(noise)/m. For this calibration curve, LOQ is 10*0.021/.109 =1.93 µM.
  4. Calculate the concentration of the unknown. Use the line equation to calculate the concentration of the unknown sample. The calibration curve is only valid if the unknown falls into the linear range of the standard samples. If the readings are too high, dilution might be necessary. In this example, the unknown sports drink was diluted 1:1. The absorbance was 0.243 and this corresponded to a concentration of 2.02 µM. Thus the final concentration of blue dye #1 in the in the sports drink was 4.04 µM.


Figure 1. Calibration curves for UV-Vis absorbance of blue dye. Links: The absorbance was measured of different concentrations of blue dye #1. The responses level off after 10 µM, when the absorbance is over 1. The error bars are from repeated measurements of the same sample and are standard deviations. Right: The linear portion of the calibration curve is fit with a line, y=0.109*x + 0.0286. The unknown data is shown in black. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Calibration curves are used to understand the instrumental response to an analyte, and to predict the concentration of analyte in a sample.

A calibration curve is created by first preparing a set of standard solutions with known concentrations of the analyte. The instrument response is measured for each, and plotted vs. concentration of the standard solution. The linear portion of this plot can then be used to predict the concentration of a sample of the analyte, by correlating its response to concentration.

This video will introduce calibration curves and their use, by demonstrating the preparation of a set of standards, followed by the analysis of a sample with unknown concentration.

A set of standard solutions is used to prepare the calibration curve. These solutions consist of a range of concentrations that encompass the approximate concentration of the analyte. 

Standard solutions are often prepared with a serial dilution. A serial dilution is performed by first preparing a stock solution of the analyte. The stock solution is then diluted by a known amount, often one order of magnitude. The new solution is then diluted in the same manner, and so on. This results in a set of solutions with concentrations ranging over several orders of magnitude.

The calibration curve is a plot of instrumental signal vs. concentration. The plot of the standards should be linear, and can be fit with the equation y=mx+b. The non-linear portions of the plot should be discarded, as these concentration ranges are out of the limit of linearity.

The equation of the best-fit line can then be used to determine the concentration of the sample, by using the instrument signal to correlate to concentration. Samples with measurements that lie outside of the linear range of the plot must be diluted, in order to be in the linear range.

The limit of detection of the instrument, or the lowest measurement that can be statistically determined over the noise, can be calculated from the calibration curve as well. A blank sample is measured multiple times. The limit of detection is generally defined as the average blank signal plus 3 times its standard deviation.

Finally, the limit of quantification can also be calculated. The limit of quantification is the lowest amount of analyte that can be accurately quantified. This is calculated as 10 standard deviations above the blank signal.

Now that you've learned the basics of a calibration curve, let's see how to prepare and use one in the laboratory.

First, prepare a concentrated stock solution of the standard. Accurately weigh the standard, and transfer it into a volumetric flask. Add a small amount of solvent, and mix so that the sample dissolves. Then, fill to the line with solvent. It is important to use the same solvent as the sample.

To prepare the standards, pipette the required amount in the volumetric flask. Then fill the flask to the line with solvent, and mix. 

Continue making the standards by pipetting from the stock solution and diluting. For a good calibration curve, at least 5 concentrations are needed.

Now, run samples with the analytical instrument, in this case a UV-Vis spectrophotometer, in order to determine the instrumental response needed for the calibration curve.

Take the measurement of the first standard. Run the standards in random order, in case there are any systematic errors. Measure each standard 3𔃃x to get an estimate of noise.

Measure the rest of the standards, repeating the measurements for each. Record all data.

Finally, run the sample. Use the same sample matrix and measurement conditions as were used for the standards. Make sure that the sample is within the range of the standards and the limit of the instrument.

To construct the calibration curve, use a computer program to plot the data as signal vs. concentration. Use the standard deviation of the repeated measurements for each data point to make error bars.

Remove portions of the curve that are non-linear, then perform a linear regression and determine the best-fit line. The output should be an equation in the form y = m x + b. An R 2 -value near 1 denotes a good fit.

This is the calibration curve for blue dye #1, measured at 631 nm. The response is linear between 0 and 15 mM.

Calculate the concentration of the sample using the equation of the best-fit line. The absorbance for the sample was 0.141, and corresponded to a concentration of 6.02 mM.

Now that you've seen how a calibration curve can be used with a UV-Vis spectrophotometer, let's take a look at some other useful applications.

Calibration curves are often used with electrochemistry applications, as the electrode signal must be calibrated to the concentration of ions in the solution. In this example, data were collected for an ion-selective electrode for fluoride.

The concentration data must be plotted on the log scale to obtain a line. This calibration curve can be used to measure the concentration of fluoride in a solution, such as toothpaste or drinking water.

High-performance liquid chromatography, or HPLC, is a separation and analysis technique that is used heavily in analytical chemistry. HPLC separates components of a mixture based on the time required for the molecules to travel the length of the chromatography column. This time varies depending on a range of chemical properties of the molecules.

The elution of the molecules is measured using a detector, resulting in a chromatogram. The peak area can be correlated to concentration using a simple calibration curve of a range of standard solutions, like in this example of popular soda ingredients.

In some cases, where the solution matrix interferes with the measurement of the solute, a classical calibration curve can be inaccurate. In those cases, a modified calibration curve is prepared. For this, a range of standard solution volumes is added to the sample. The signal to concentration plot is created, where the x intercept is equal to the original concentration of the sample solution. For more detail on this technique, please watch the JoVE science education video, "The method of standard addition".

You've just watched JoVE's introduction to the calibration curve. You should now understand where the calibration curve is used, how to create it, and how to use it to calculate concentrations of samples.

Wie immer danke fürs Zuschauen!

Abonnement erforderlich. Bitte empfehlen Sie JoVE Ihrem Bibliothekar.

Applications and Summary

Calibration curves are used in many fields of analytical chemistry, biochemistry, and pharmaceutical chemistry. It is common to use them with spectroscopy, chromatography, and electrochemistry measurements. A calibration curve can be used to understand the concentration of an environmental pollutant in a soil sample. It could be used determine the concentration of a neurotransmitter in a sample of brain fluid, vitamin in pharmaceutical samples, or caffeine in food. Thus, calibration curves are useful in environmental, biological, pharmaceutical, and food science applications. The most important part of making a calibration curve is to make accurate standard samples that are in a matrix that closely approximates the sample mixture.

An example of an electrochemistry calibration curve is shown below (Figur 2). The data were collected with an ion-selective electrode for fluoride. Electrochemical data follow the Nernst equation E=E 0 + 2.03*R*T/(nF) * log C. Thus, the concentration data (x-axis) must be plotted on a log scale to obtain a line. This calibration curve could be used to measure the concentration of fluoride in toothpaste or drinking water.


Figure 2. Calibration curve for an ion-selective electrode. The response of a fluoride selective electrode (in mV) to different concentrations of fluoride is plotted. The expected equation for the electrode response is y (in mV)=-59.2*log x+b at 25 °C. The actual equation is y=-57.4*log x +56.38. The R 2 value is 0.998. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Abonnement erforderlich. Bitte empfehlen Sie JoVE Ihrem Bibliothekar.

Transkript

Calibration curves are used to understand the instrumental response to an analyte, and to predict the concentration of analyte in a sample.

A calibration curve is created by first preparing a set of standard solutions with known concentrations of the analyte. The instrument response is measured for each, and plotted vs. concentration of the standard solution. The linear portion of this plot can then be used to predict the concentration of a sample of the analyte, by correlating its response to concentration.

This video will introduce calibration curves and their use, by demonstrating the preparation of a set of standards, followed by the analysis of a sample with unknown concentration.

A set of standard solutions is used to prepare the calibration curve. These solutions consist of a range of concentrations that encompass the approximate concentration of the analyte.

Standard solutions are often prepared with a serial dilution. A serial dilution is performed by first preparing a stock solution of the analyte. The stock solution is then diluted by a known amount, often one order of magnitude. The new solution is then diluted in the same manner, and so on. This results in a set of solutions with concentrations ranging over several orders of magnitude.

The calibration curve is a plot of instrumental signal vs. concentration. The plot of the standards should be linear, and can be fit with the equation y=mx+b. The non-linear portions of the plot should be discarded, as these concentration ranges are out of the limit of linearity.

The equation of the best-fit line can then be used to determine the concentration of the sample, by using the instrument signal to correlate to concentration. Samples with measurements that lie outside of the linear range of the plot must be diluted, in order to be in the linear range.

The limit of detection of the instrument, or the lowest measurement that can be statistically determined over the noise, can be calculated from the calibration curve as well. A blank sample is measured multiple times. The limit of detection is generally defined as the average blank signal plus 3 times its standard deviation.

Finally, the limit of quantification can also be calculated. The limit of quantification is the lowest amount of analyte that can be accurately quantified. This is calculated as 10 standard deviations above the blank signal.

Now that you've learned the basics of a calibration curve, let's see how to prepare and use one in the laboratory.

First, prepare a concentrated stock solution of the standard. Accurately weigh the standard, and transfer it into a volumetric flask. Add a small amount of solvent, and mix so that the sample dissolves. Then, fill to the line with solvent. It is important to use the same solvent as the sample.

To prepare the standards, pipette the required amount in the volumetric flask. Then fill the flask to the line with solvent, and mix.

Continue making the standards by pipetting from the stock solution and diluting. For a good calibration curve, at least 5 concentrations are needed.

Now, run samples with the analytical instrument, in this case a UV-Vis spectrophotometer, in order to determine the instrumental response needed for the calibration curve.

Take the measurement of the first standard. Run the standards in random order, in case there are any systematic errors. Measure each standard 3–5x to get an estimate of noise.

Measure the rest of the standards, repeating the measurements for each. Record all data.

Finally, run the sample. Use the same sample matrix and measurement conditions as were used for the standards. Make sure that the sample is within the range of the standards and the limit of the instrument.

To construct the calibration curve, use a computer program to plot the data as signal vs. concentration. Use the standard deviation of the repeated measurements for each data point to make error bars.

Remove portions of the curve that are non-linear, then perform a linear regression and determine the best-fit line. The output should be an equation in the form y = m x + b. An R2-value near 1 denotes a good fit.

This is the calibration curve for blue dye #1, measured at 631 nm. The response is linear between 0 and 15 mM.

Calculate the concentration of the sample using the equation of the best-fit line. The absorbance for the sample was 0.141, and corresponded to a concentration of 6.02 mM.

Now that you've seen how a calibration curve can be used with a UV-Vis spectrophotometer, let's take a look at some other useful applications.

Calibration curves are often used with electrochemistry applications, as the electrode signal must be calibrated to the concentration of ions in the solution. In this example, data were collected for an ion-selective electrode for fluoride.

The concentration data must be plotted on the log scale to obtain a line. This calibration curve can be used to measure the concentration of fluoride in a solution, such as toothpaste or drinking water.

High-performance liquid chromatography, or HPLC, is a separation and analysis technique that is used heavily in analytical chemistry. HPLC separates components of a mixture based on the time required for the molecules to travel the length of the chromatography column. This time varies depending on a range of chemical properties of the molecules.

The elution of the molecules is measured using a detector, resulting in a chromatogram. The peak area can be correlated to concentration using a simple calibration curve of a range of standard solutions, like in this example of popular soda ingredients.

In some cases, where the solution matrix interferes with the measurement of the solute, a classical calibration curve can be inaccurate. In those cases, a modified calibration curve is prepared. For this, a range of standard solution volumes is added to the sample. The signal to concentration plot is created, where the x intercept is equal to the original concentration of the sample solution. For more detail on this technique, please watch the JoVE science education video, "The method of standard addition".

You've just watched JoVE's introduction to the calibration curve. You should now understand where the calibration curve is used, how to create it, and how to use it to calculate concentrations of samples.