Information

Ist diese Anpassung des Gillespie-Algorithmus mit Michaelis-Konstanten vertretbar?

Ist diese Anpassung des Gillespie-Algorithmus mit Michaelis-Konstanten vertretbar?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich würde gerne laufen diskret Simulation eines biologischen Systems, wie es beispielsweise mit dem Gillespie-Algorithmus möglich ist. Der Gillespie-Algorithmus erfordert jedoch, dass Sie die Reaktionsgeschwindigkeitskonstanten jeder beteiligten Reaktion kennen, während ich nur die Michaelis-Konstante $K_M$ und die maximale Geschwindigkeit $V_{max}$ jeder Reaktion kenne.

Da der Gillespie-Algorithmus nur die Reaktionsgeschwindigkeitskonstanten verwendet, um die Reaktionsgeschwindigkeit $v$ zu berechnen (die wiederum verwendet wird, um die Wahrscheinlichkeit einer bestimmten Reaktion zu bestimmen), frage ich mich, ob es gerechtfertigt ist, diese Berechnung von $v = . einfach zu ersetzen k * [S]$ durch $v = frac{V_{max}cdot[S]}{K_M + [S]}$ für jede Reaktion $S ightarrow P$ und ansonsten den Gillespie-Algorithmus wie es ist? Wenn nicht, gibt es eine bessere Möglichkeit, eine diskrete Simulation des Systems mit den gegebenen Parametern durchzuführen?

Hinweis: Ich habe bereits in einer anderen Frage gefragt, ob es möglich ist, die Reaktionsgeschwindigkeiten nur mit den Parametern $K_M$ und $V_{max}$ (eine Schätzung) zu erhalten. Ich hoffe, meine beiden Fragen sind ausreichend differenziert, um zwei verschiedene Beiträge zu rechtfertigen.


Der stochastische Simulationsalgorithmus von Gillespie geht davon aus, dass die Reaktionsneigung (Wahrscheinlichkeit) in einem infinitesimal kleinen Zeitintervall gleich der makroskopischen Reaktionsgeschwindigkeit ist. (Für Details können Sie meine Antwort in Chemistry.SE sehen).

Sie können jeden Schritt der Enzymkatalyse modellieren und simulieren oder auch das Michaelis-Menten-Modell verwenden. In jedem Fall können Sie die gleichen Näherungen auf das stochastische Modell erweitern.

Dies gilt auch für andere Michaelis-Menten-ähnliche (oder Hill-) Funktionen der Form $$frac{x^n}{k^n+x^n} qquad ext{or}qquad frac{k^ n}{k^n+x^n}$$.

Es gibt viele Papiere, die dies getan haben. Beachten Sie, dass die nichtlineare Natur dieser Funktionen zu einer Abweichung des stochastischen Verhaltens vom deterministischen Verhalten führt. Lesen Sie mehr über stochastische Fokussierung. Die exakte Modellierung jedes Schrittes (Binden, Aufheben und Katalyse) kann je nach Ihren Parametern zu unterschiedlichem Verhalten führen. Ob Sie die Michaelis-Menten-Funktion verwenden sollten, um die Reaktionsgeschwindigkeit zu beschreiben, hängt ganz davon ab, wie vernünftig Ihre Näherung ist.


Sehr interessante Frage. Die Leute verwenden den Gillespie-Algorithmus für verschiedene Arten von kinetischen Funktionen wie Michaelis-Menten (MM), Hill usw., unabhängig von den ursprünglichen Annahmen des Gillespie-Algorithmus.

Bezüglich MM gab es eine Arbeit von Gillespie aus dem Jahr 2011, die zeigt, dass die Approximation in diskreten stochastischen Modellen anwendbar ist und dass die Gültigkeitsbedingungen die gleichen wie im deterministischen Regime sind.

https://www.ncbi.nlm.nih.gov/pubmed/21261403

Denken Sie daran, dass Sie die S->P-Transformation in ihre Einzelschrittkomponenten zerlegen können, da MM unter einer QSSA abgeleitet wird. Siehe zum Beispiel hier einen Vergleich

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3578938/


Ableitung stationärer Verteilungen biochemischer Reaktionsnetzwerke über Strukturtransformation

Das Langzeitverhalten biochemischer Reaktionsnetzwerke (BRNs) wird durch stationäre Zustände in deterministischen Modellen und stationäre Verteilungen in stochastischen Modellen beschrieben. Im Gegensatz zu deterministischen stationären Zuständen sind stationäre Verteilungen, die inhärente Fluktuationen von Reaktionen erfassen, aufgrund des Fluchs der Dimensionalität äußerst schwierig analytisch abzuleiten. Hier entwickeln wir eine Methode, um analytische stationäre Verteilungen aus deterministischen stationären Zuständen abzuleiten, indem wir BRNs so transformieren, dass sie eine spezielle dynamische Eigenschaft haben, die als komplexes Ausgleichen bezeichnet wird. Insbesondere verschmelzen wir Knoten und Kanten von BRNs, um die Ein- und Ausflüsse jedes Knotens abzugleichen. Dies ermöglicht es uns, die stationären Verteilungen einer großen Klasse von BRNs abzuleiten, einschließlich Autophosphorylierungsnetzwerken von EGFR, PAK1 und Aurora B-Kinase und einem genetischen Kippschalter. Dies offenbart die einzigartigen Eigenschaften ihrer stochastischen Dynamik wie Robustheit, Sensitivität und Multimodalität. Wichtig ist, dass wir ein benutzerfreundliches Berechnungspaket, CASTANET, bereitstellen, das automatisch symbolische Ausdrücke der stationären Verteilungen von BRNs ableitet, um ihre langfristige Stochastik zu verstehen.


Abstrakt

Motivation: Simulation und Modellierung werden zu einem Standardansatz, um komplexe biochemische Prozesse zu verstehen. Daher besteht ein großer Bedarf an Softwarewerkzeugen, die den Zugang zu diversen Simulations- und Modellierungsmethoden ermöglichen sowie deren Anwendung unterstützen.

Ergebnisse: Hier präsentieren wir COPASI, einen plattformunabhängigen und benutzerfreundlichen biochemischen Simulator, der mehrere einzigartige Funktionen bietet. Wir diskutieren numerische Probleme mit diesen Eigenschaften, insbesondere die Kriterien für den Wechsel zwischen stochastischen und deterministischen Simulationsmethoden, hybride deterministisch-stochastische Methoden und die Bedeutung der numerischen Auflösung von Zufallsgeneratoren in der stochastischen Simulation.

Verfügbarkeit: Die komplette Software ist in binärer Form (ausführbar) für MS Windows, OS X, Linux (Intel) und Sun Solaris (SPARC) sowie der vollständige Quellcode unter einer Open-Source-Lizenz von Author Webpage erhältlich.


1. Einleitung

Nicht-genetische Heterogenität ist ein Kennzeichen der Zellphysiologie. Isogene Zellen können aufgrund der Stochastik intrazellulärer Prozesse und Schwankungen der Umweltbedingungen deutlich unterschiedliche Phänotypen aufweisen. Insbesondere der Variabilität der Genexpression wurde dank robuster experimenteller Techniken zur Messung von Transkripten und Proteinen mit Einzelzellauflösung große Aufmerksamkeit geschenkt (Golding et al., 2005 Taniguchi et al., 2010). Dieser Fortschritt ging Hand in Hand mit umfangreichen theoretischen Arbeiten zu stochastischen Modellen, um die molekularen Prozesse zu identifizieren, die die Expressionsheterogenität beeinflussen (Swain et al., 2002 Raj und van Oudenaarden, 2008 Thomas et al., 2014 Dattani und Barahona , 2017 Tonn et al., 2019).

Im Gegensatz zur Genexpression steckt unser Verständnis stochastischer Phänomene im Stoffwechsel noch in den Kinderschuhen. Traditionell wurde der Zellstoffwechsel als deterministischer Prozess angesehen, da Metaboliten in großer Zahl vorkommen, die stochastische Phänomene herausfiltern (Heinemann und Zenobi, 2011). Diese Ansicht ändert sich jedoch schnell dank einer wachsenden Zahl von Einzelzellmessungen von Metaboliten und Co-Faktoren (Bennett et al., 2009 Imamura et al., 2009 Lemke und Schultz, 2011 Paige et al., 2012 Ibá x000F1ez et al., 2013 Yaginuma et al., 2014 Esaki und Masujima, 2015 Xiao et al., 2016 Mannan et al., 2017), die darauf hindeuten, dass die Variation der Metaboliten von Zelle zu Zelle viel stärker verbreitet ist als bisher angenommen. Die funktionellen Auswirkungen dieser Heterogenität sind weitgehend unbekannt, dürften jedoch angesichts der Rolle des Stoffwechsels bei vielen zellulären Prozessen erheblich sein, darunter Wachstum (Weisse et al., 2015), Genregulation (Lempp et al., 2019), epigenetische Kontrolle (Loftus .). und Finlay, 2016) und Immunität (Reid et al., 2017). Beispielsweise wurde metabolische Heterogenität mit bakterieller Persistenz in Verbindung gebracht (Radzikowski et al., 2017 Shan et al., 2017), einem ruhenden Phänotyp, der durch eine geringe metabolische Aktivität sowie Antibiotikaresistenz gekennzeichnet ist (Deris et al., 2013) und andere funktionelle Effekte (Vilhena et al., 2018). In biotechnologischen Anwendungen wird die metabolische Heterogenität allgemein als limitierender Faktor bei der Metabolitenproduktion mit gentechnisch veränderten Mikroben anerkannt (Binder et al., 2017 Schmitz et al., 2017 Liu et al., 2018).

Eine zentrale Herausforderung bei der Quantifizierung der metabolischen Variabilität ist die Schwierigkeit, zelluläre Metaboliten mit einer Einzelzellauflösung zu messen (Amantonico et al., 2010 Takhaveev und Heinemann, 2018 Wehrens et al., 2018). Infolgedessen verwenden die meisten Studien andere Phänotypen als Proxy für die metabolische Variation, z. B. Enzymexpressionsniveaus (Kotte et al., 2014 van Heerden et al., 2014), metabolische Flüsse (Schreiber et al., 2016) oder Wachstum (Kiviet et al., 2014 Şimᗾk und Kim, 2018). Aus rechnerischer Sicht besteht die größte Herausforderung darin, dass Stoffwechselprozesse auf zwei Zeitskalen ablaufen: einer langsamen Zeitskala für die Expression metabolischer Enzyme und einer schnellen Zeitskala für die Enzymkatalyse. Eine solche Multiskalenstruktur führt zu steifen Modellen, die mit Standardalgorithmen für die stochastische Simulation nicht zu lösen sind (Gillespie, 2007). Andere Strategien zur Beschleunigung stochastischer Simulationen, wie z. B. τ-Sprung (Rathinam et al., 2003), liefern aufgrund der unterschiedlichen Molekülzahlen zwischen Enzymen und Metaboliten ebenfalls keine genauen Simulationsergebnisse (Tonn, 2020). Diese Herausforderungen haben eine Reihe von Methoden motiviert, stochastische Simulationen des Stoffwechsels zu optimieren (Puchałka und Kierzek, 2004 Cao et al., 2005 Labhsetwar et al., 2013 Lugagne et al., 2013 Murabito et al., 2014). Die meisten dieser Methoden nutzen die Zeitskalentrennung, um Simulationen auf Kosten einiger Näherungsfehler zu beschleunigen. Dieser Fortschritt wurde von einer Reihe theoretischer Ergebnisse zu den Zusammenhängen zwischen molekularen Prozessen und der Form der Metabolitenverteilungen begleitet (Levine und Hwa, 2007 Oyarzún et al., 2015 Gupta et al., 2017b Tonn et al., 2019) . Bis heute gibt es jedoch keine allgemeinen Methoden zur Berechnung von Metabolitenverteilungen, die inhärente Merkmale von Stoffwechselwegen wie Feedback-Regulierung, komplexe Stöchiometrien und die hohe Anzahl beteiligter molekularer Spezies verarbeiten können.

In diesem Beitrag stellen wir eine breit anwendbare Methode zur Approximation der Metabolitenverteilungen einzelner Zellen vor. Unsere Methode basiert auf der Zeitskalentrennung zwischen Enzymexpression und Enzymkatalyse, die wir verwenden, um die stationäre Lösung der chemischen Mastergleichung anzunähern. Die Näherungslösung hat die Form von Mischungsverteilungen mit: (i) Mischungsgewichten, die aus Modellen für die Genexpression oder Einzelzell-Expressionsdaten berechnet werden können, und (ii) Mischungskomponenten, die direkt aus deterministischen Pfadmodellen berechnet werden können. Das resultierende Mischungsmodell kann verwendet werden, um den Einfluss biochemischer Parameter auf die Metabolitenvariabilität zu untersuchen. Wir veranschaulichen die Leistungsfähigkeit der Methode an zwei beispielhaften Systemen, die Kernbausteine ​​großer metabolischer Netzwerke sind. Unsere Theorie bietet eine quantitative Grundlage, um überprüfbare Hypothesen zu den Quellen der Metabolitenheterogenität zu erstellen, die zusammen mit den laufenden Bemühungen um Einzelzellmetabolitenmessungen dazu beitragen werden, die Rolle des Stoffwechsels als aktive Quelle phänotypischer Variation neu zu bewerten.


Realisierung einer ‘integralen Kontrolle’ in lebenden Zellen: Wie kann eine undichte Integration aufgrund von Verdünnung überwunden werden?

Ein Hauptproblem beim Entwurf synthetischer genetischer Schaltkreise ist die Robustheit gegenüber Störungen und Unsicherheit. Aus diesem Grund wurden in den letzten Jahren erhebliche Anstrengungen unternommen, um Ansätze zu finden, um eine integrale Kontrolle in genetischen Schaltkreisen zu implementieren. Integrale Regler haben die einzigartige Fähigkeit, den Ausgang eines Prozesses perfekt an Störungen anzupassen. In lebenden Zellen ist die Implementierung eines integralen Controllers jedoch eine Herausforderung. Dies liegt daran, dass ein Schlüsselaspekt jedes Integralreglers ein „Speicher“-Element ist, das die Akkumulation (Integral) des Fehlers zwischen dem Ausgang und seinem gewünschten Sollwert speichert. Die Fähigkeit, ein solches Gedächtniselement in lebenden Zellen zu realisieren, wird grundlegend dadurch herausgefordert, dass sich alle Biomoleküle mit dem Wachstum der Zellen verdünnen, was zu einem „undichten“ Gedächtnis führt, das allmählich verblasst. Als Konsequenz geht die Anpassungseigenschaft verloren. Hier schlagen wir ein allgemeines Prinzip vor, um integrale Regler so auszulegen, dass die Leistung praktisch nicht von Verdünnung beeinflusst wird. Insbesondere beweisen wir mathematisch, dass, wenn die Reaktionen, die den Integralregler implementieren, alle viel schneller als die Verdünnung sind, der Anpassungsfehler aufgrund von Integrationslecks vernachlässigbar wird. Wir veranschaulichen dieses Konstruktionsprinzip an zwei synthetischen genetischen Schaltkreisen, die darauf abzielen, die Genexpression an Schwankungen der zellulären Ressourcen anzupassen. Unsere Ergebnisse liefern konkrete Hinweise zu den biomolekularen Prozessen, die am besten geeignet sind, um integrale Controller in lebenden Zellen zu implementieren.

1. Einleitung

Eine seit langem bestehende Herausforderung in der synthetischen Biologie ist die Schaffung genetischer Schaltkreise, die in lebenden Zellen vorhersagbar und zuverlässig funktionieren [1,2]. Variationen in der Umgebung [3], unvorhergesehene Wechselwirkungen zwischen einem Schaltkreis und der Wirtsmaschinerie [4] und unbekannte Interferenzen zwischen Schaltkreiskomponenten [5] können alle das beabsichtigte Verhalten eines genetischen Schaltkreises erheblich verändern. Integrale Kontrolle, die in traditionellen technischen Systemen allgegenwärtig ist, ist ein vielversprechender Ansatz, um die Auswirkungen solcher Unbekannten auf genetische Schaltkreise zu mildern. Auf der einfachsten Ebene stellt ein integraler Regler sicher, dass der Ausgang eines Systems einen gewünschten Sollwert erreichen kann, während er konstante Störungen perfekt unterdrückt (d. h. sich an ihn anpasst) [6–8]. Aufgrund dieser einzigartigen Fähigkeit hat die Forschung der synthetischen Biologie zunehmende Bemühungen um die Etablierung von Verfahren zur Realisierung einer integralen Kontrolle in lebenden Zellen beobachtet [9–17].

Das Herzstück eines Integralreglers ist ein unverzichtbares „Gedächtnis“-Element, das den Fehler zwischen dem gewünschten Sollwert und dem gemessenen Ausgang über die Zeit akkumuliert (d. h. integriert). Während die Berechnung dieses Integrals mit elektronischen Komponenten fast trivial ist, ist es problematisch, es durch biomolekulare Reaktionen in lebenden Zellen zu realisieren. Dies liegt daran, dass Informationen über den Fehler normalerweise in Form von molekularen Konzentrationen gespeichert werden, und wenn die Wirtszelle wächst und sich teilt, verdünnen sich die Biomoleküle in jeder einzelnen Zelle [18,19], was zu einem „undichten“ Gedächtnis führt, das mit der Zeit verblasst. Da Zellwachstum in einer Reihe von Anwendungen unvermeidlich und sogar von Vorteil ist, beispielsweise in der Biokraftstoffproduktion [20], ist die undichte Integration eine grundlegende physikalische Einschränkung für die Implementierung einer integralen Kontrolle durch genetische Schaltkreise in lebenden Zellen.

Frühere theoretische Studien haben integrale Kontrollmotive (ICMs) vorgeschlagen, aber das Vorhandensein einer Molekülverdünnung bei der Analyse vernachlässigt [10,12,15,17]. Obwohl diese Motive theoretisch eine garantierte Leistung in zellfreien Systemen aufweisen, in denen keine Verdünnung vorhanden ist, bleibt ihre Leistung in Gegenwart einer Molekülverdünnung daher nicht erhalten. Tatsächlich kann der sich verschlechternde Effekt der undichten Integration erheblich sein, wie in diesem Papier und in anderen neueren Studien (z. B. [21,22]) gezeigt wird. Daher wurden mögliche Lösungen für die undichte Integration vorgeschlagen [10,21]. Konkret beruht der in [10] vorgeschlagene Ansatz darauf, den Verdünnungseffekt „aufzuheben“, indem die „Memory-Spezies“ mit der gleichen Geschwindigkeit wie ihre Verdünnung erzeugt wird. Dieser Ansatz beruht jedoch auf einer exakten Parameteranpassung und ist daher in der Praxis schwer zu realisieren. Ein anderer Ansatz besteht darin, eine umfassende numerische Simulation zu verwenden, um Schaltungsparameter zu extrahieren, die die Auswirkungen der streuenden Integration minimieren [21], was zu einer langwierigen und Ad hoc Designprozess.

In diesem Bericht schlagen wir allgemeine Gestaltungsprinzipien für ICMs vor, die trotz vorhandener Verdünnung eine gute Leistung erbringen. Insbesondere zeigen wir mathematisch, dass der unerwünschte Verdünnungseffekt beliebig unterdrückt werden kann, indem die Geschwindigkeit aller Reglerreaktionen erhöht wird. Dies gilt unter milden Bedingungen, die weitgehend unabhängig von bestimmten Parameterwerten sind. Dieses Konstruktionsprinzip leitet die Wahl der biomolekularen Kernprozesse und Schaltungsparameter, die am besten geeignet sind, um eine ICM in lebenden Zellen zu realisieren. Wir veranschaulichen diese geführte Wahl an zwei Schaltkreisen, die darauf ausgelegt sind, die Auswirkungen von Schwankungen der Transkriptions-/Translationsressourcen auf die Genexpression zu mildern, ein Problem, das in letzter Zeit erhebliche Aufmerksamkeit erregt hat [4,23–25].

2. Quasi-integrale Steuerung

Der Ansatz, den wir in diesem Papier verfolgen, ist der folgende. Wir beschreiben zuerst zwei Arten von idealen ICMs in §2.1, die zuvor als abstrakte Schaltungsmotive zur Anpassung an konstante Störungen ohne Verdünnung vorgeschlagen wurden. Dann führen wir undichte ICMs ein, die diese idealen ICMs verdünnen und zeigen, dass die Anpassungseigenschaft verloren geht. Schließlich beschreiben wir Quasi-ICMs in §2.2, der Hauptneuheit dieses Papiers, bei denen die Controller-Reaktionen viel schneller als die Verdünnung sind, wodurch die Schaltung eine nahezu perfekte Anpassung an konstante Störungen wiederherstellen kann.

2.1. Ideale integrale Kontrollmotive und undichte integrale Kontrollmotive

Wir veranschaulichen in Abbildung 1ein zwei verschiedene Typen idealer ICMs, die die beiden in der Literatur vorgeschlagenen Hauptmechanismen für die biomolekulare integrale Kontrolle abstrahieren. In beiden Motivarten bezeichnen wir mit x die Spezies, deren Konzentration auf einem Sollwert gehalten werden muss du, obwohl seine Produktionsrate von einer ständigen Störung beeinflusst wird D. Daher ist die Ausgabe des zu steuernden Prozesses die Konzentration der Spezies x, die mit . bezeichnet wird x (kursiv). Der Zweck der Implementierung eines Integralreglers besteht also darin, den stationären Zustand von x, bezeichnet mit , zu befriedigen, unabhängig davon D (d.h. x passt sich perfekt an D).

Abbildung 1. Quasi-integrale Kontrolle mildert den Effekt einer undichten Integration aufgrund von Verdünnung. (ein) Zwei Arten von idealen ICMs. Die Reglerreaktionen sind rosa eingerahmt und der Rest der Schaltung gehört zum zu regelnden Prozess. Die Verdünnung der Controller-Spezies wird in idealen ICMs vernachlässigt. (B) Wenn eine Verdünnung der Controller-Spezies in Betracht gezogen wird, werden ideale ICMs zu undichten ICMs, die keine Integration durchführen können. Der Anpassungsfehler, definiert als das Ausmaß, in dem der Ausgang von der Störung beeinflusst wird, kann beliebig groß sein. (C) Alle Reglerreaktionen in einem Quasi-ICM sind 1/ε mal schneller als im entsprechenden undichten ICM, mit ε ≪ 1. (D) Simulationen der idealen, undichten und quasi-ICMs vom Typ I und Typ II. Simulationsparameter für beide Motive: α = γ = δ = k = 1 h −1 , θ = 1 nM −1 h −1 , ε = 0.02, du = 10 nM und D = 5 nM·h −1 . Störeingang D wird um 15 Uhr aufgetragen. (e) Ein General ε-quasi-integriertes Steuerungssystem. Ausgabe des Prozesses ja wird eine Eingabe für den quasi-integralen Regler. Variable z2 die undichte Speichervariable ist und z1 repräsentiert die verbleibenden Controller-Zustände, falls vorhanden. Alle Controller-Reaktionen sind viel schneller als die Verdünnung, wie durch Parameter charakterisiert ε. Ausgang des Controllers v fährt den Prozess zum Sollwert du und passt sich an D. (Online-Version in Farbe.)

In diesen idealen ICMs realisieren ausgewählte Reglerarten die für die integrale Regelung wesentliche Speicherfunktion. Insbesondere ein ideales ICM vom Typ I (Abbildung 1ein(i)) regelt den Ausdruck von x mit einer einzigen Controller-Spezies z. Dieses Motiv entsteht durch die Sättigung bestimmter Kinetiken vom Hill-Typ oder Michaelis-Menten-Typ, so dass die Produktion und die Entfernungsraten von z werden ungefähr proportional zu du und x, woraus sich das folgende ungefähre Modell der Massenwirkungskinetik für die Controller-Spezies ergibt z [10,15,17]:

Bezugnehmend auf Abbildung 1ein(ii), ein idealer ICM vom Typ II, der aus dem sogenannten antithetischen Integralregler in [12] hervorgeht, realisiert einen Integraleffekt unter Verwendung von zwei Reglerarten z1 und z2. Ihre Produktionsraten sind proportional zum Sollwert (du) und auf die Konzentration der Ausgangsspezies (x). Die beiden Controller-Spezies können sich zu einem Komplex verbinden, der mit einer Geschwindigkeitskonstanten entfernt wird θ: . Diese biomolekularen Prozesse können durch das folgende Massenwirkungskinetikmodell beschrieben werden:

Berücksichtigt man die Verdünnung der Controller-Spezies aufgrund des Wirtszellwachstums, wird die wichtige integrale Struktur der Speichervariablen gestört (Abbildung 1B). Tatsächlich ist in einem Standardmodell der Massenwirkungskinetik, das Reaktionen in exponentiell wachsenden Zellen beschreibt, die durchschnittliche Wirkung von Zellwachstum und Zellteilung auf die Dynamik jeder Spezies z kann durch einen additiven Term erster Ordnung modelliert werden −z, wo γ ist die spezifische Wachstumsrate der Wirtszelle [18,19,26,27] (Details siehe elektronisches Zusatzmaterial, Abschnitt S1.1). Daher mit Bezug auf Abbildung 1B(i), die Dynamik der Speichervariablen z in einem ICM Typ I werden

2.2. Quasi-integrale Kontrollmotive: nahezu perfekte Anpassung an Störungen

In diesem Abschnitt stellen wir Quasi-ICMs vor, den Hauptbeitrag dieses Papiers. Während undichte ICMs keine perfekte Anpassung an Störungen erreichen können und ihre Leistung durch das Vorhandensein von Verdünnung beliebig verschlechtert werden kann, schlagen wir vor, dass man trotz Verdünnung eine nahezu perfekte Anpassung an Störungen erreichen kann, indem die Rate aller Reglerreaktionen in den undichten ICMs erhöht wird. Daher nennen wir ein undichtes ICM, dessen Controller-Reaktionen viel schneller sind als der langsamere Verdünnungsprozess a Quasi-ICM. Diese Motive sind in Abbildung 1 dargestelltC(i)(ii) für die beiden Motivtypen. Insbesondere mit Bezug auf Abbildung 1C(i) verwenden wir einen kleinen dimensionslosen positiven Parameter 0 < ε≪1, um die Tatsache zu erfassen, dass die Controller-Reaktionsraten in einem Quasi-ICM vom Typ I 1/ε mal schneller als bei einem Typ I undichten ICM (Abbildung 1B(i)), was dazu führt, dass die Dynamik der Speichervariablen zu wird

Wir betrachten einen biomolekularen Prozess als kontrolliert, dessen Dynamik sich schreiben lässt als

Definition 2.1

Das geschlossene Regelkreissystem (2.9)–(2.10) realisiert ε-quasi-integrale Steuerung in einer zulässige Eingabemenge wenn für alle, die stationäre Ausgabe des Systems erfüllt

Gleichung (2.11) impliziert, dass durch Erhöhen der Reaktionsgeschwindigkeit des Reglers (d. h. durch Verringern von ε), die stationäre Ausgabe von an ε-quasi-integriertes Regelsystem kann beliebig nah am Sollwert eingestellt werden du bei Störungen D. Die folgende Behauptung liefert eine leicht zu überprüfende Bedingung für ε-quasi-integrale Steuerung.

Anspruch 2.2.

Das geschlossene Regelkreissystem (2.9)–(2.10) realisiert ε-quasi-integrale Regelung, wenn das Hilfs-Ideal-Integral-Regelsystem aus dem Prozess (2.9) und dem Ideal-Integral-Regler besteht

Der Nachweis dieser Behauptung ist im elektronischen Ergänzungsmaterial, Abschnitt S1.2, zu finden. Sie legt fest, dass, wenn man den idealen Integralregler (2.12) verwenden kann, um eine perfekte Adaption ohne Verdünnung zu erhalten, man unter Berücksichtigung der Verdünnung immer alle Reglerreaktionen beschleunigen kann, um die Adaption wiederherzustellen. Aus technischer Sicht sollte man daher biomolekulare Controller-Prozesse wählen, deren Geschwindigkeiten in Bezug auf die Verdünnungsgeschwindigkeiten deutlich schneller sind. Solche Prozesse umfassen beispielsweise enzymatische Reaktionen (d. h. Phosphorylierung, Methylierung und Ubiquitinierung), Protein-Protein-Interaktion und RNA-basierte Interaktionen (d. h. sRNA- oder microRNA-aktivierter Abbau oder Sequestrierung). Mit diesen Verfahren kann der Konstrukteur dann ideale ICMs vom Typ I oder Typ II sowie weitere ideale ICMs, die als System (2.12) vorliegen, realisieren. Es sei darauf hingewiesen, dass auch in Fällen, in denen nur ein Teil der Controller-Reaktionen beschleunigt werden kann, es möglicherweise noch möglich ist, ε-quasi-integrale Kontrolle, obwohl die zu überprüfenden algebraischen Bedingungen etwas komplizierter werden (siehe elektronisches Zusatzmaterial, Abschnitt S1.7). Im elektronischen Zusatzmaterial, Abschnitt S4.3, demonstrieren wir weiter, dass der Anpassungsfehler immer noch garantiert abnimmt, wenn sich die Verdünnungsratenkonstante langsam mit der Zeit ändert, da ε wird verringert.

Anspruch 2.2 liefert die theoretische Untermauerung der Quasi-ICM-Designs vom Typ I und Typ II von Abbildung 1C. Da die entsprechenden idealen ICMs vom Typ I und II die Form (2.12) haben und eindeutige lokal exponentiell stabile stationäre Zustände aufweisen (siehe Beweis im elektronischen Ergänzungsmaterial, Abschnitt S1.3–1.4), wird eine Erhöhung aller Reglerreaktionsgeschwindigkeiten die Steady-State-Effekt der undichten Integration. Darüber hinaus zeigen wir im elektronischen Ergänzungsmaterial, Abschnitt S1.3–1.4, dass die stationären Zustände der Quasi-ICMs vom Typ I und II einzigartig und stabil sind.

3. Zwei biomolekulare Realisierungen von quasi-integralen Kontrollmotiven

In diesem Abschnitt schlagen wir physikalische Implementierungen eines auf Phosphorylierung basierenden quasi-integralen Controllers und eines kleinen RNA-basierten quasi-integralen Controllers vor. Es handelt sich um Realisierungen der Quasi-ICMs vom Typ I bzw. vom Typ II, die dem allgemeinen Konstruktionsprinzip schneller Reglerreaktionen genügen. Zur Veranschaulichung verwenden wir diese Controller, um die Auswirkungen von transkriptionalen und translationalen Ressourcenfluktuationen auf die Genexpression abzuschwächen, ein Problem, dem in den letzten Jahren in der synthetischen Biologie erhebliche Aufmerksamkeit geschenkt wurde [4,23–25].

3.1. Quasi-integrales Kontrollmotiv vom Typ I: Phosphorylierungszyklus

Ein Diagramm des auf Phosphorylierung basierenden quasi-integralen Kontrollsystems ist in Abbildung 2 gezeigtein. Der Controller soll die Produktion von Protein p regulieren, um sich an eine Störung anzupassen D, das eine Verringerung der Proteinproduktionsrate beispielsweise aufgrund der Erschöpfung von Transkriptions- und/oder Translationsressourcen in der Wirtszelle modelliert [4,23]. In diesem System wird die beabsichtigte integrale Steuerung durch einen Phosphorylierungszyklus erreicht. Das regulierte Protein p wird mit einer Phosphatase co-exprimiert und die Konzentration der Kinase dient als Sollwert du. Das Substrat b wird konstitutiv exprimiert. Wenn b durch Kinase u phosphoryliert wird, um das aktive Substrat b* zu werden, aktiviert es transkriptionell die Produktion von Protein p. Ein vereinfachtes mathematisches Modell dieses Systems ist (siehe das elektronische Ergänzungsmaterial, Abschnitt S2.1, für eine detaillierte Ableitung aus chemischen Reaktionen)

wo k1 und k2 sind die katalytischen Geschwindigkeitskonstanten der Phosphorylierungs- bzw. Dephosphorylierungsreaktionen, K1 und K2 sind die Michaelis-Menten-Konstanten, R ist die Proteinproduktionsrate konstant, und λ ist die Dissoziationskonstante zwischen B * und der Promotor des regulierten Gens.

Abbildung 2. Zwei physikalische Realisierungen von Quasi-ICMs. (ein) Genetisches Schaltbild des auf Phosphorylierung basierenden quasi-integralen Reglers. Chemische Reaktionen, die den Controller realisieren, sind rosa eingerahmt. (B) Simulation der Reaktion der Schaltung nach (3.1). Ein Sollwerteingang du = 20 nM wird zum Zeitpunkt 0 angelegt und ein Störeingang D = 0,5 wird nach 20 h aufgetragen. Die vertikale Achse repräsentiert das Verhältnis zwischen Output ja, definiert als proportional zu P (ja = p) und Sollwert du. Die gestrichelte schwarze Linie ist die Reaktion des auf Phosphorylierung basierenden Kontrollsystems unter der Annahme, dass das aktive Substrat nicht verdünnt wird B * . Die gepunktete blaue Linie, die dünne grüne Linie mit quadratischen Markierungen und die durchgezogene rote Linie repräsentieren die Reaktion des Schaltkreises bei einer Substratverdünnung ungleich null (γ = 1 h −1 ) und abnehmend ε, was mit steigenden katalytischen Raten (kich, ich = 1, 2). (C) Genetisches Schaltbild des sRNA-basierten quasi-integralen Controllers. (D) Simulation der Reaktion der Schaltung nach (3.4). Ein Sollwerteingang du = 1 liegt zum Zeitpunkt 0 an und ein Störeingang D = 0,5 wird nach 30 h aufgetragen. Die vertikale Achse repräsentiert das Verhältnis zwischen Output ja, definiert in (3.6) und Sollwertvorgabe du. Die gestrichelte schwarze Linie stellt die Reaktion eines idealen integralen Kontrollsystems dar, bei dem die RNA-Zerfallsrate δ auf 0 gesetzt. Die gepunktete blaue Linie, die dünne grüne Linie mit quadratischen Markierungen und die durchgezogene rote Linie stellen die Reaktionen des Schaltkreises bei Vorhandensein einer RNA-Zerfallsrate ungleich null dar (δ = 3 h −1 , entsprechend einer Halbwertszeit von ca. 13 min) und abnehmend ε. Parameter ε wird durch Erhöhung der mRNA-sRNA-Entfernungsrate verringert (θ/β). Die DNA-Kopienzahlen des regulierten Gens und der sRNA werden gleichzeitig um den Faktor 1/ε wie ε nimmt ab. Simulationsparameter sind im elektronischen Zusatzmaterial, Abschnitt S5, Tabelle S2 aufgeführt. (Online-Version in Farbe.)

Das System (3.1) kann in die Form eines Typ-I-Leaky-ICM (2.3) gebracht werden, wenn sowohl die Kinase als auch die Phosphatase gesättigt sind (d. h. BK1 und B * ≫K2). Diese Designbeschränkungen sind in jeder Typ-I-ICM vorhanden, die auf der Sättigung der Hill-Typ- oder Michaelis-Menten-Kinetik beruht [10,15,17] und können in der Praxis erfüllt werden, wenn das Substrat überexprimiert ist und die Kinasekonzentration ist nicht zu klein (Details siehe elektronisches Zusatzmaterial, Abschnitt S2.3). Unter diesen Annahmen und durch Einstellung x: = P, z: = B * und σ: = k2/k1, können wir (3.1) annähern durch

3.2. Quasi-integrales Kontrollmotiv vom Typ II: kleine RNA-Interferenz

Der sRNA-basierte Quasi-Integral-Controller ist eine Realisierung des Quasi-ICM Typ II. Es soll die Translation von Protein p regulieren, um sich an eine Störung anzupassen D, das die Unsicherheit der Translationsgeschwindigkeitskonstante aufgrund der Fluktuation in der Menge der verfügbaren Ribosomen modelliert [4,23,24]. Bezugnehmend auf Abbildung 2C, besteht der Controller aus Protein p, das transkriptionell die Produktion einer sRNA (s) aktiviert, die komplementär zur mRNA (m) des regulierten Proteins p ist. Die sRNA und mRNA können sich schnell binden und abbauen [28–30]. Die mRNA-Konzentration m ist die Steuereingabe für den Übersetzungsprozess. Ein konstanter Upstream-Transkriptionsfaktor reguliert die mRNA-Produktion als Sollwert-Input du zum Controller. Basierend auf den chemischen Reaktionen im elektronischen Ergänzungsmaterial, Abschnitt S3.1, ist das ODE-Modell dieses Systems

Einstellung z1: = m, z2: = S und x: = P, kann das System (3.4) als Leaky-ICM Typ II dargestellt werden:

4. Diskussion

Aufgrund der einzigartigen Fähigkeit von integrierten Reglern, einen Prozess unabhängig von Störungen/Unsicherheiten so anzusteuern, dass ein Sollwert erreicht wird, sind sie besonders attraktiv für die synthetische Biologie, wo verschiedene Formen von Störungen und Unsicherheiten die Robustheit und Vorhersagbarkeit synthetischer Schaltkreise einschränken. Eine einzigartige und grundlegende Herausforderung bei der Realisierung einer integralen Kontrolle in lebenden Zellen besteht darin, dass sich die Konzentration von Biomolekülen mit zunehmendem Zellwachstum verringert, was dazu führt, dass es unmöglich ist, ein nicht leckendes biomolekulares Speicherelement zu erzeugen, das für die Implementierung einer integralen Kontrolle unerlässlich ist.

In diesem Bericht schlagen wir ein allgemeines Gestaltungsprinzip vor, um dieses Hindernis zu überwinden. Wir zeigen mathematisch, dass man einen idealen Integralregler entwerfen kann, um eine perfekte Anpassung in Abwesenheit von Verdünnung zu erhalten, und dann alle Reglerreaktionen in Bezug auf die Verdünnung beschleunigen kann, um die Anpassung bei Vorhandensein einer Verdünnung wiederherzustellen. Dies impliziert, dass der Designer biomolekulare Controller-Prozesse auswählen sollte, deren Geschwindigkeiten signifikant schneller als die Verdünnungsgeschwindigkeiten sind. Unser Ergebnis ist gleichermaßen auf Situationen anwendbar, in denen Kontrollspezies zusätzlich zur Verdünnung abgebaut werden. Aufgrund der asymptotischen Natur unserer Ergebnisse sind sie weitgehend unempfindlich gegenüber Systemparametern. Um diesen Punkt zu festigen, haben wir den phosphorylierungsbasierten und den sRNA-basierten quasi-integralen Controller mit zufällig generierten Parametern simuliert und gezeigt, dass der Adaptionsfehler unabhängig von den restlichen Parametern immer kleiner wird, da die Reaktionsgeschwindigkeiten des Controllers sind erhöht (elektronisches Zusatzmaterial, Abschnitt S5.2).

Während unsere mathematischen Analysen mit gewöhnlichen Differentialgleichungsmodellen, die aus der Massenwirkungskinetik abgeleitet sind, durchgeführt werden, veranschaulichen wir ihre Wirksamkeit numerisch anhand einer zeitvariablen Gillespie-Simulation [36], in der Zellvolumenexpansion und Zellteilung sowie Stochastik in biomolekularen Reaktionen explizit berücksichtigt (Details siehe elektronisches Zusatzmaterial, Abschnitt S5.3). Außerdem haben wir angenommen, dass die Wirtszellen mit konstanter Geschwindigkeit wachsen (konstante γ). In der Praxis kann sich ihre Wachstumsrate jedoch beispielsweise mit Temperatur, Nährstoffen und metabolischer Belastung des Kreislaufs ändern [37]. We have therefore studied the performance of quasi-integral controllers in changing growth conditions (see the electronic supplementary material, section S4.3), and found that the circuit's output can still adapt to disturbances as long as growth rate changes slowly.

Nature may have already used the time-scale separation strategy between process and controller that we propose here for realizing adaptation and homeostasis. For example, it has been suggested that the bacterial chemotaxis system [38] and the yeast osmoregulation system [39] contain integral controllers realized through methylation and phosphorylation, respectively. As these processes are much faster than dilution in their respective host cells, it is justifiable to neglect dilution in these systems, and almost perfect adaptation can be achieved. Therefore, experimental study of synthetic realizations of the quasi-integral controllers proposed here may enhance our understanding of their natural counterparts, which are often embedded in more complex biomolecular networks and are therefore more difficult to analyse.

From a classical control-theoretic perspective, integral controllers often operate with low integral gains (i.e. slow integration). This is because with a perfect integrator, steady-state adaptation can be achieved regardless of the magnitude of the integral gain, and a high integral gain often leads to undesirable effects such as higher energy consumption and tendency to instability [6,22]. However, a potential advantage of increasing the leaky integral gain is that it can improve a system's ability to track (reject) time-varying references (disturbances). While we demonstrate this capability for the two example systems through linearization and simulations in the electronic supplementary material, section S4.1–4.2, further theoretical assessment of this property requires deeper study [40,41].

Data accessibility

All simulation codes are provided as the electronic supplementary material.


Diskussion

In this paper we describe a Bayesian framework for estimating free parameters in ODE-based biochemical models, making probabilistic predictions about dynamical variables and discriminating between competing models having different topologies. We illustrate the use of this approach with a previously validated and non-identifiable model of receptor-mediated apoptosis in human cells (EARM1.3). Rather than return a single set of ‘best fit’ parameters, Bayesian estimation provides a statistically complete set of parameter vectors k that samples the posterior parameter distribution given a set of experimental observations (time-lapse data from live cells in the current case) and a value for experimental error. Estimation starts with a best-guess initial distribution (the prior), which is then modulated by a sum of squares log-likelihood function that scores the difference between model and data (Box 1). Recovery of the posterior parameter distribution makes it possible to compute confidence intervals for biologically interesting properties of the model (time and rapidity of apoptosis in the current case). These confidence intervals correctly account for measurement noise and parametric uncertainty, and can be remarkably precise in the face of substantial non-identifiablility ( Klinke, 2009 ). Simulations that include confidence intervals represent an advance on the prevailing practice of relying on error-free trajectories computed using a single set of maximum likelihood parameter values.

We also used Bayesian procedures to discriminate between competing direct and indirect models of MOMP, a key step in apoptosis. Discrimination involves estimating the evidence for the indirect model P(mich|data) divided by the evidence for the direct model P(mD|data), a ratio known as the Bayes factor ( Kass and Raftery, 1993 , 1995 Xu et al, 2010). Bayesian approaches to model discrimination account not only for uncertainty in parameter values but also for differences in the numbers of parameters. This is important because models that instantiate different hypotheses about biochemical mechanism usually have different numbers of parameters even when the number of unique model species is the same. The complexity penalty embedded in the Bayes factor represents a generalization of the Akaike or Bayesian Information Criteria (AIC and BIC) commonly used to score model likelihoods ( Kass and Raftery, 1995 ).

In the case of MOMP, we observed that both direct and indirect models fit experimental data equally well and, thus, cannot be distinguished on a maximum likelihood basis. However, computation of the Bayes factor revealed the direct model to be ∼16–24 times more probable than the indirect model at 90% confidence, reflecting the greater range of parameter values compatible with the direct model. This formalization of a ‘robustness’ criterion for preferring the direct model is consistent with recent experiments obtained from engineered cell lines ( Chipuk et al, 2010). With respect to the biological significance of this finding, however, it is important to note that published indirect and direct ‘word models’ are compatible with many different ODE networks. Thus, it will ultimately be necessary to distinguish among extended sets of competing models, not just the two presented here. With improvements in computational speed, methods for calculating the Bayes factor using ‘thermodynamic integration’ are well suited to this task.

Properties of the posterior distribution and implications for reporting parameter values

With EARM1.3, Bayesian estimation reveals substantial differences from one parameter to the next in the degree of identifiability (as reflected in the widths of the parameter distributions). This is expected given previous work showing that biochemical models are ‘sloppy’ ( Gutenkunst et al, 2007 ) even when calibrated against ‘complete’ data on all dynamic variables (which is not the case in the current work). A basic property of Bayesian estimation is that the posterior will resemble the prior when data provide little or no additional information. Conversely, when the data are informative, the shape of the posterior will differ substantially from that of the prior. In the case of EARM1.3 modal values for posterior distributions differed from the priors for about one-third of all parameters while still falling within a biophysically plausible range (with rate constants below the diffusion limit, for example). The exact shape of the prior did not appear to be critical in achieving convergent sampling, a fortunate outcome since we used general-purpose priors applicable to all cellular functions rather than priors derived from specific analysis of apoptosis proteins. One mistake we learned to avoid was constraining the MCMC walk to a fixed interval around nominal parameter values such hard limits result in artificially truncated marginal distributions. Gaussian priors also had the benefit of improving the fraction of parameter sets for which the EARM1.3 ODE system could be integrated.

It is incorrect to judge the impact of parameter estimation (i.e., what we learn by comparing models to data) simply by examining the shapes of individual parameter distributions: several lines of evidence show that marginal distributions contain only part of the information. Non-linear covariation among parameters accounts for the rest it is necessary for accurate model-based simulation and cannot be approximated by a covariance matrix. The reasons for this are evident from inspection of the landscape of the objective function. The landscape is steep (the eigenvalues of the Hessian matrix are high) in directions that do not point directly along raw parameter axes ( Gutenkunst et al, 2007). Thus, identifiable features of the systems correspond to ratios of rate constants (this is the basis of parameter covariation) but the value of the ratio varies through parameter space (this gives rise to curved high-probability valleys that are not well approximated by lines). By direct analogy, the identifiable parameter in a Michaelis–Menten treatment of a simple catalytic reaction is Km, a ratio of rate constants, rather than kF oder kR themselves (( Chen et al, 2010 ) see also Box 2). When parameters in a model are highly covariant, it is almost always the case that the system can be described with a simpler model involving a smaller set of more identifiable parameters. In many applications in engineering it is desirable to use such reduced models, but in the case of biochemistry, parameter non-identifiability and high covariance appear to be the cost of representing systems as sets of reversible mass-action reactions. Under the assumption that mass-action kinetics (and also stochastic kinetics obtained by solving the chemical master equation) are uniquely appropriate as a means to describe the physics of biochemical systems, we are forced to use models such as EARM1.3. However, there is no reason, from a physical perspective, to believe that proteins in a network that do not actually bind to each other alter each other's rate constants. Thus, the presence of highly covariant parameters in best-fit vectors is not a property of the underlying biochemistry: instead, it represents a limitation on our ability to infer the properties of complex reaction networks based on the time-course data we typically acquire.

One consequence of parameter covariation in EARM1.3 is that parameter values in best-fit vectors do not correspond to the means of marginal parameter distributions, and sampling the means of marginal distributions does not result in a good fit. It is common practice in biochemical modeling to report parameters as a table of single values (with no allowance for non-identifiablility) or as a list of means and ranges. If these parameters are derived from calibration, critical information on covariation is lost. It is therefore necessary to report the actual vectors recovered by sampling the posterior parameter distribution. In principle, this is an array of size (C × m) × (n+1) where C is the number of MCMC chains, m the number of steps, and n the number of parameters (n+1 appears because we record a posterior value for each n-dimensional vector) corresponding to ∼1.5 × 10 8 entries for EARM1.3. However, steps in MCMC chains have characteristic ‘decorrelation lengths’ over which parameter values vary relatively little (∼10 2 –10 4 steps, depending on the parameter). Thinning by this amount yields an array of ∼10 4 –10 6 entries, still a much more complex representation of parameters than the simple tabular summary assumed by current standards such as SBML. It is also important to note that the posterior landscape needs to be revisited repeatedly when adding new data or extracting new hypotheses. In this sense, parameter estimates are best viewed as computational procedures and sets of possible values rather than fixed information.

Model discrimination in the Bayesian framework

A solid theoretical foundation and large body of literature speaks to the value of Bayesian frameworks for analyzing models having different numbers of uncertain parameters ( Kass and Raftery, 1995 MacKay, 2004 Xu et al, 2010). The Bayes factor described here, the odds ratio for competing models (i.e., the ratio of the evidence), is computed from an overlap integral between a likelihood and a prior (that is L(data|Θ) and π(Θ|m)). At first glance it might seem that making a model more complex would increase the number of dimensions and always increase the evidence, but a simple example shows that this is not the case. Consider a pair of one- and two-parameter models of the same hypothetical physical process and a function F that is the ratio of relevant likelihoods: F(k1,k2)=L(k1,k2)/L(k1). The evidence for the one-parameter model is the overlap integral between its likelihood and a normalized prior ∬dk1 L(k1)π(k1) and for the two-parameter model it is ∬dk1 dk2 L(k1,k2)π(k1)π(k2). In the case where F(k1,k2)<1 for all k1, k2 the likelihood of the two-parameter model is no better than that of the simpler one-parameter model (note that the evidence for the two-parameter model is ∬dk1 L(k1)π(k1)g(k1) where the function g(k1)=∬dk2 π(k2)F(k1,k2) must be less than 1 everywhere, as the priors are normalized to 1). The evidence for the two-parameter model will therefore be less than the evidence for the one-parameter model, meaning that it will lose out in a Bayes factor comparison, as it should.

When the function F(k1,k2)>1 then it must be true that introduction of a second parameter ‘rescues’ or ‘lifts’ the likelihood function by improving the fit to data. In this case, the more complex model will have greater evidence. In the special but interesting case where F(k1,k2)=1 for all k1, k2, model 2 is completely insensitive to the new parameter. The presence of a parameter with respect to which a model is completely insensitive has no impact in model assessment (the Bayes factor is one). Finally, in the general case where F(k1,k2) has values both above and below 1, explicit integration is needed to determine which model is favored, precisely what we do in this paper.

The Bayes factor is not unique as a means to balance goodness-of-fit and model complexity. The most commonly used metrics are the AIC and the BIC ( Akaike, 1974 Schwarz, 1978 ):

wo n is the number of parameters, ML is the maximum likelihood value, and n is the number of data points (ML is simply the highest value achieved by the likelihood function). AIC and BIC do not explicitly account for parameter non-identifiability and the two metrics are therefore good for comparing models only in the ‘asymptotic’ limit where the number of experimental data points becomes ‘large’ and identifiability is ‘greater’ ( Akaike, 1977 , 1983 Kass and Raftery, 1995 ). It is rare in the field of biochemical modeling to explicitly check whether the conditions for computing the AIC and BIC are valid and, in our experience, they are frequently violated. In contrast, the Bayes factor is applicable even with limited data and reduces to the BIC and, under some conditions, to the AIC in the asymptotic limit ( Akaike, 1977 , 1983 Kass and Raftery, 1995 ). Moreover, whereas the AIC or BIC compare models solely on the basis of goodness-of-fit, Bayesian methods allows formal introduction of a prior degree of belief in each model. An arbitrary model (i.e., a physically impossible model) exhibiting a better fit to data might get a better AIC or BIC score than a more realistic mechanistic model, but in a Bayesian approach it would receive a low prior value. We therefore consider evaluation of the Bayes factor to be a better way than AIC or BIC to compare models when models have different numbers of non-identifiable parameters and data are limited.

Limitations of the approach

The computational approach described here has several practical and algorithmic limitations, albeit ones that can be mitigated with further work. A practical concern is that current methods for computing the Bayes factor are too slow to incorporate the full range of data we have collected from cells exposed to drugs, siRNA-mediated protein knockdown and ligand treatment. Using only a subset of available training data, computing the Bayes factor for EARM1.3 required ∼6 × 10 4 CPU-hr (4 weeks on a 100 core general-purpose computer cluster). It should be possible to improve this by optimizing the code (e.g., porting it from MatLab to C/C++) and performing multiple analyses in parallel. It also remains to be determined how inclusion of more calibration data will alter the topology of the posterior landscape. It may become more rugged, decreasing the requirement for Hessian guidance during MCMC walks but increasing the need for simulated annealing (SA) to move out of local minima. Readers interested in these developments should check our Github repository or contact the authors directly.

An additional conceptual concern with the current work involves the way in which MCMC walks sample the posterior landscape. To establish that sampling is correct, it is necessary to show that chains starting at independent positions converge. Convergent sampling is not an abstruse point because probability distributions can differ in shape and modal value, when sampling is convergent as opposed to non-convergent. With EARM1.3 we observed that convergence was not possible in a reasonable amount of time (e.g., a week-long cluster-based calculation) using a conventional MCMC walk. We therefore used an adaptive walk involving periodic recalculation of the local landscape as a means to guide MCMC walks and improve convergence. However, this approach may violate the detailed balance requirement of M–H sampling. With large models and existing methods, we are therefore in the position of having to choose between convergent Hessian-guided chains and partially non-convergent, conventional chains (( Klinke, 2009 ) chose the latter alternative). Moreover, using the Gelman–Rubin test to judge convergence has the weakness that it is one-sided: failing the test demonstrates non-convergence but passing the test does not guarantee it. Analysis of posterior distributions for EARM1.3 computed in different ways suggests that we are on relatively solid ground in the current paper (we did not observe significant differences in posterior distributions using different sampling approaches), but the development of methods for analyzing MCMC walks represents an active area of research in applied mathematics and it is necessary to be aware of future developments.

For reliable, probabilistic model-based simulation, we also need to consider the fact that the sufficiency of sampling is contingent not only on the model structure and available training data, but also on the types of predictions being sought. Assuming convergence, the posterior landscape sampled by multi-start MCMC walks represents a reasonable approximation to the true but unknown posterior distribution of the parameters, but the same is not necessarily true for predictions or simulated trajectories based on these parameters: the posterior landscape may be poorly sampled in regions of parameter space that have a significant impact on some simulations. In the current work we show that MCMC chains used to predict TS und TD satisfy the Gelman–Rubin test, but this is a weak criterion and importance sampling using umbrella, non-Boltzmann or other methods ( Allen and Tildesley, 1987 ) will generally be necessary to revisit regions of the landscape that have low posterior values but contribute strongly to the distribution of a prediction. This suggests a workflow in which MCMC walks based on calibration data (as described here) are only the first step in model calibration. Inclusion of any new training data mandates a new round of estimation. Additional sampling should also be performed as required by importance sampling to reliably inform predictions. Finally, the use of formal methods for modeling experimental error ( Jaqaman and Danuser, 2006 ) should make it possible to distinguish errors arising from photon noise, infrequent sampling, incorrect normalization, etc, thereby improving the comparison between data and simulation.

Schlussfolgerungen

The ubiquity of Bayesian methods in other scientific fields has motivated multiple, parallel efforts to apply the approach to biochemical models ( Flaherty et al, 2008 Calderhead and Girolami, 2009 Klinke, 2009 Xu et al, 2010 ), but significant challenges have remained with respect to development of widely available methods for discriminating between competing models. The algorithms and open-source code described in this paper enable a rigorous approach to estimating the parameters of non-identifiable biochemical models, making model-based predictions probabilistic, and using the Bayes factor to distinguish between models with different topologies and numbers of parameters. The generic priors we report are a good starting point for estimating forward, reverse and catalytic rates in any mass-action model of cellular biochemistry, but in some cases it makes more sense to substitute narrower and more specific priors derived from previous studies in vitro und in vivo such specific priors better capture pre-existing knowledge, improve parameter estimation and speed of computation. It is our opinion that application of rigorous probabilistic analysis of biochemical models will advance the long-term goal of understanding complex biochemical networks in diverse cell types and disease states ( Klinke, 2009 Xu et al, 2010). Preliminary application of Bayesian reasoning suggests that some long-standing disputes about cell signaling can be laid to rest, (e.g., direct versus indirect control of MOMP), whereas others truly cannot be discriminated based on available data.


5 Specifying Execution Settings

We have introduced the chemical perceptron models structurally as collections of species and reactions with catalysts and inhibitors. Now, we shall specify the setting of executions (or chemical experiments) in terms of the action series and the translation series (Section 2.2).

5.1 Binary-Function Modeling

Figure 6 presents simulations of the weight-loop perceptron and the weight-race perceptron, each computing the NAND function on four consecutive inputs.

Simulation of the NAND function on four different combinations of the input species by (a) the weight-loop perceptron with initial weight concentrations [W0 ⊕ ] = 6 M, [W1 ⊖ ] = 2 M, and [W2 ⊖ ] = 3 M, and (b) the weight-race perceptron with initial weight concentrations [W0 ⊕ ] = 0.3 M, [W1 ⊖ ] = 4 M, and [W2 ⊖ ] = 3.5 M. From top to bottom: concentrations of input species x1 0 and x1 1 , concentrations of input species x2 0 and x2 1 , and concentrations of output Ja and weight species W. By applying the translation that compares the maximal concentrations of Ja 1 und Ja 0 in the four intervals 5,000 steps long, we obtain the NAND output sequence 1, 1, 1, 0.

Simulation of the NAND function on four different combinations of the input species by (a) the weight-loop perceptron with initial weight concentrations [W0 ⊕ ] = 6 M, [W1 ⊖ ] = 2 M, and [W2 ⊖ ] = 3 M, and (b) the weight-race perceptron with initial weight concentrations [W0 ⊕ ] = 0.3 M, [W1 ⊖ ] = 4 M, and [W2 ⊖ ] = 3.5 M. From top to bottom: concentrations of input species x1 0 and x1 1 , concentrations of input species x2 0 and x2 1 , and concentrations of output Ja and weight species W. By applying the translation that compares the maximal concentrations of Ja 1 und Ja 0 in the four intervals 5,000 steps long, we obtain the NAND output sequence 1, 1, 1, 0.

5.2 Learning

In learning mode, the initial concentrations of weights are generated randomly in the interval 2–10 M, with equal probability of selecting positive and negative variants. A learning rate α, which is constant throughout the whole training, is incorporated into the concentration of the desired output D.

The original definition of perceptron learning (Section 3 adjusts weight wich by Δwich = α(Dja)xich for a given output ja and desired output D. Assuming Dja, each weight participating in the output production increments by Δw = α(Dja). Since the sign of the weight sum fully determines output, weight adaptation is stronger for inputs with the higher number of ones. For instance, the weight sum is adjusted by Δw for input (0, 0), but by 3Δw for input (1, 1), as shown in Table 4a.

The adaptation of a weight sum during learning by a two-input binary perceptron for four inputs: (a) a uniform adaptation of individual weights, (b) a uniform adaptation of the weight sum.

(a) . (b) .
x1 . x2 . Adapted weight sum . x1 . x2 . Adapted weight sum .
0 0 w0 + Δw0 0 w0 + Δw
1 0 w0 + w1 + 2Δw1 0 w0 + w1 + Δw
0 1 w0 + w2 + 2Δw0 1 w0 + w2 + Δw
1 1 w0 + w1 + w2 + 3Δw1 1 w0 + w1 + w2 + Δw
(a) . (b) .
x1 . x2 . Adapted weight sum . x1 . x2 . Adapted weight sum .
0 0 w0 + Δw0 0 w0 + Δw
1 0 w0 + w1 + 2Δw1 0 w0 + w1 + Δw
0 1 w0 + w2 + 2Δw0 1 w0 + w2 + Δw
1 1 w0 + w1 + w2 + 3Δw1 1 w0 + w1 + w2 + Δw

In the chemical perceptron, the concentration of the desired output is divided between weights hence the weight adaptation of the original perceptron would correspond to the concentration profile of the desired output for four consecutive inputs: [D] = α, [D] = 2α, [D] = 2α, [D] = 3α. Our simulations proved that this unfairness results in a split of performance for function pairs, such as CONST0 , CONST1 or AND , NAND . Since these functions are the inverse of each other, the chemical perceptron should learn them with the same success.

Essentially, the uniform adaptation of individual weights causes a bias in the weight adaptation. To avoid that, we do not adapt individual weights, but the whole weight sum uniformly for all inputs, as presented in Table 4b. More specifically, the chemical perceptron divides Δw, the concentration of the desired output D among weights, so the whole weight sum is adjusted by Δw. Note that a small amount of the desired output disappears because of a decay.

The concentration of the desired-output species D is constant for all inputs in the chemical perceptron. By experiments we determined that the optimal concentration of D is 2 M. If the concentration was too high, the weights would oscillate and would not converge on a stable solution. Conversely, a low concentration of D prolongs the learning process and does not provide enough pressure to drive weights out of the zero region if their concentrations are very low.

As opposed to our chemical perceptron, the biased adaptation in the original formal perceptron does not cause substantial problems, because the weight sum is further processed by an activation function and the learning rate α decreases over time. As a result, small differences in the weight adaptation become unimportant.

Learning consists of a series of actions, each randomly chosen from the training set and performed every S Schritte. The total number of actions, L, per action series is LF = 120 for the fitness evaluation (Section 6), and LP = 200 for the learning performance and robustness analysis (Sections 7.1 and 7.2), so the perceptron runs for either S × LF = 6 × 10 5 or S × LP = 10 6 time steps.

If we injected inputs together with the desired output at the same time, the adaptation of the weights would start immediately, changing the actual output, so the actual output would differ from the one we would obtain by providing only input species. In the extreme case, the chemical perceptron could just copy the desired output to the actual output by having very low concentrations of weights. To prevent this, we inject an input, wait a certain number of steps, measure the output, and then provide the desired output. Note that a reaction DW requires both catalysts, the input species x and the output species Ja, to have a sufficient concentration at the moment of weight adaptation. Therefore, we must allow enough time for the output production, but we cannot postpone the injection of D for too long if we did, the chemical perceptron would process or decay all input species. We found experimentally that this delay can be fairly short. More precisely, in our learning simulations we inject the desired output 100 steps after the input species.

Now, the only question is how to interpret the output, or in other words, how the concentrations of species Ja 0 and Ja 1 translate to the value of the variable ja from the formal definition. Schon seit ja is a Boolean variable, the translation compares the concentrations of value-0 species and value-1 species just before a desired output is injected. Hence, the value of the variable ja is defined as [Ja 1 ] > [Ja 0 ] at relative time step 99.


Schlussfolgerungen

While there are many caveats for deploying any allometric-scaled equations to describe complex behavioral and ecological processes, SCEB, has clear advantages over RHt2, its multi-prey derivations, and other functions that make reference to half-saturation constants with units of external prey abundance. While SCEB has similarities, and hence common mechanistic grounds, with the classic Holling type 2 disk equation, the use of a single handling constant (here labeled for “satiation”) and a defined maximum ingestion rate makes SCEB more attractive for deployment in planktonic ecosystem models. In addition to providing solutions to the challenges associated with deployment of RHt2, the simplicity of the SCEB function offers potential for:

(a) An extended theoretical consideration of predator-prey interactions, including explorations of activity in patches, and the challenges of mean-field computations of predation dynamics (Grünbaum, 2012).

(b) A role as a front-end to more complex models considering multiple prey types of different quality and quantity, together with satiation and variable assimilation efficiency, and changes in predator size and motility with developmental stage.

With no significant additional computational cost, the SCEB function overcomes all the shortcomings of the RHt2 function (and allies) and provides a direct route to involving physics, changes in predator and/or prey size and motility, and prey palatability (thus allowing true de-selection of prey types). SCEB can also be directly incorporated within individual-based as well as biomass-based models. Importantly, SCEB requires (enforces) an acknowledgement of allometrics in biomass-based models, which typically make scant reference to size even when (as for predator-prey interactions, as we have seen) it is necessary to do so.


Zero-Information Closure Scheme

For the sake of brevity, we limit the discussion in this section to one-dimensional state spaces. In particular, for a single random variable that can attain a discrete set of values, , each with probability , the information entropy is defined as (23): We conjecture that a finite number of probability moments may capture all of the information needed to precisely construct the probability distribution. In consequence, we maximize the information entropy under the constraints of the first m moment definitions: where is the Lagrange multiplier of the Jth moment constraint. These are readily computed with appropriate root-finding numerical methods, such as the simple Newton–Raphson method we present in the SI-Anhang, section S1.

Trivially, the final form for the maximum-entropy probability distribution is (24): Now the –th order moment can be computed from the maximum entropy distribution: Eqs. 2 are now closed and can be integrated to evolve the probability moments by a time step . Given an initial condition for the value of the probability moments, the system may be propagated in time. With newly calculated moments up to order m, the information entropy is maximized again, generating new values for the Lagrange multipliers, and so on.

It is important to note that, in a separate calculation without simulations in time, the steady state of reaction networks can be computed by determining the most likely distribution moments that lie in the null space of the augmented matrix . This means that the steady-state moments are found so that they maximize the information entropy as well as satisfy: We note that in this calculation there is no need to provide an initial condition for the probability distribution in state space. Because only a single optimization step is used this method is far more efficient than traditional Monte Carlo approaches.

The algorithm that couples the optimization with the ODE solver, and the algorithm for determining steady-state probability distributions are detailed in the SI-Anhang, sections S2 and S3.


Abschluss

A number of methods exist for measuring or inferring EIN over a wide range of scales, including leaf gas exchange (Long & Bernacchi 2003 ), canopy chamber methods (Leadley & Drake 1993 Johnson, Polley & Whitis 2000 ), eddy covariance (Baldocchi 2003 ) and remote sensing techniques (Field et al. 1995 Damm et al. 2010 Frankenberg et al. 2011 Serbin et al. 2012). The basis for the ability to compare EIN among these spatial scales is through modelling. The leaf EIN model (Farquhar et al. 1980 ) provides the foundation for scaling EIN among a variety of spatial and temporal ranges while also providing the basis for generating predictions and hypotheses. A key attribute of the leaf EIN model is the mechanistic basis upon which equations are derived. In the context of scaling EIN to the globe, the leaf EIN model provides the backbone for predictions of GPP that are being validated against an increasing number of remote sensing techniques. Recent advances in remote-sensing methods to acquire the parameters needed to model EIN (Vc,max und Jmax z.B. Serbin et al. 2012 ) will further help to constrain models using the most accurate parameterizations.


Schau das Video: Extended Euclidean Algorithm and Inverse Modulo Tutorial (Kann 2022).