Information

Haben Forscher des frühen 20. Jahrhunderts angegeben, warum sie E. coli als Modellorganismus verwendet haben?

Haben Forscher des frühen 20. Jahrhunderts angegeben, warum sie E. coli als Modellorganismus verwendet haben?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich untersuche die frühen Verwendungen von E coli als Modellorganismus. Leider sind viele Papiere des frühen 20. Jahrhunderts nicht auf Englisch. In denen, die es sind, konnte ich keine expliziten Aussagen darüber finden, warum ein Forscher sich für die Verwendung von . entschieden hat E coli Als ein Modellorganismus.

Kennt jemand frühe Literatur, in der diese Argumentation zum Ausdruck kommt? Ich kann mir vorstellen, dass vor der weit verbreiteten Verwendung von E coli, hätten Wissenschaftler argumentieren müssen, warum sie sich entschieden haben, damit biologische Phänomene zu untersuchen, die nicht nur auf dieses Bakterium beschränkt sind.


In der Frage implizite historische Irrtümer

  1. „… warum sich ein Forscher für die Verwendung entschieden hat E coli als Modellorganismus.“

Forscher haben nicht arbeiten mit E coli weil sie ihn als „Modellorganismus“ betrachteten. Sie arbeiteten damit, weil sie Bakteriologen waren und es ein bequem zu verwendendes Bakterium war. Wie Joshua Lederberg in Microbiology Today (2004) schrieb:

Obwohl von Anfang an auch pathogene Stämme gefunden wurden, E coli wurde als repräsentatives, harmloses Bakterium verwendet, das auch auf synthetischen Medien sicher und einfach kultiviert werden konnte. Auf Rich Media wächst es mit einer Verdopplungszeit von 20 Minuten; daher sind beim Ausplattieren auf Agar über Nacht leicht sichtbare Kolonien zu sehen. Für die selektive Isolierung und Identifizierung von wurden spezielle Medien wie MacConkey's Agar entwickelt E coli, da dieser als globaler Indikator für die Verschmutzung der Wasservorräte verwendet wurde. In der ersten Hälfte des zwanzigsten Jahrhunderts E coli Bakteriologen bekannt. Es wurde jedoch selten, wenn überhaupt, in allgemeinen Biologietexten erwähnt, da Bakterien im Allgemeinen als präzellulär in ihrer Komplexität und ohne Kerne und andere genetische Apparate „echter“ Organismen angesehen wurden.

Tatsächlich wurde der Begriff „Modellorganismus“ erst um 1970 in diesem Sinne verwendet, wie dieses Google-Ngramm zeigt.

  1. „Ich kann mir vorstellen, dass vor der weit verbreiteten Verwendung von E coli, hätten Wissenschaftler argumentieren müssen, warum sie sich entschieden haben, damit biologische Phänomene zu untersuchen, die nicht nur auf dieses Bakterium beschränkt sind.“

Sie stellen sich falsch vor. Sie sind nicht sich hinsetzen und sagen: „Wir wollen dieses biologische Phänomen untersuchen, welche Bakterien sollen wir wählen?“ und schon gar nicht bei der Veröffentlichung rechtfertigen zu müssen. Im Allgemeinen veröffentlichten sie in bakteriologischen Fachzeitschriften, in denen Publikum und Gutachter wussten, warum sie es verwendeten E coli oder Wasauchimmer. Auch wenn Tatum und Lederberg (sehen unten) einen Brief zur bakteriellen Rekombination im General Science Journal veröffentlicht, Natur, im Jahr 1946 haben sie keinen Platz für die Rechtfertigung der Arten verschwendet:

Nein. Sie drängen der Wissenschaft eines ganz anderen Zeitalters eine moderne Haltung auf, die vom aktuellen Stand der Wissenschaft und ihrer Finanzierung bestimmt wird. So kann man sich der Geschichte nicht nähern.

Warum? E coli das am besten untersuchte Bakterium werden?

Es scheint, dass die Entdeckung der bakteriellen Rekombination in E coli von Lederberg und Tatum (für die sie sich 1958 mit George Beadle den Nobelpreis für Physiologie oder Medizin teilten) war einer der Schlüsselfaktoren für die Ausweitung der Verwendung von E coli (sehen Artikel von Microbiology Today, der zuvor zitiert wurde). Dieses Phänomen wurde ursprünglich durch Studien an den Transformations-Pneumokokken-Bakterien vorgeschlagen, aber seine Demonstration im bakteriellen Arbeitspferd, E coli, öffnete die Türen für den Einsatz einer breiten Palette genetischer Techniken, die sowohl für biochemische als auch molekularbiologische Studien verwendet werden könnten.


Sehr interessante Frage.

Haben Forscher des frühen 20. Jahrhunderts angegeben, warum sie es verwendet haben? E coli als Modellorganismus?

Kurzum: Nein (zumindest in den 1920er Jahren). Zum Beispiel: Werkman 1927: Vitamin Effects in the Physiology of Microorganisms liefert keine Rechtfertigung.

Ebenso eine aktuelle Rezension von Blount, 2015, eLife: Das unerschöpfliche Potenzial von E coli Zustände:

E colis kometenhafter Aufstieg und erhabener Status in der Biologie sind darauf zurückzuführen, wie einfach es ist, es zu finden und damit zu arbeiten. Robuste, nicht-pathogene und vielseitige Sorten, die mit vielen verschiedenen Nährstoffen schnell wachsen, können von praktisch jedem Menschen isoliert werden. Diese Eigenschaften machten E coli eine tragende Säule in den Sammlungen des Mikrobiologie-Lehrlabors. Als Mikrobiologen des frühen 20. Jahrhunderts nach einem Modellorganismus suchten, E coli war eine der am weitesten verbreiteten Möglichkeiten.

Wenn jedoch E coli Jahrhunderts und damit einige Jahrzehnte früher in die Forschung eingetreten es wurde nicht als Werkzeug, Modell oder Lehrmaterial eingeführt. Als es in die Wissenschaft eintrat, tat es dies sofort als Teil einer sehr tiefgreifenden und wichtigen Entdeckung über die menschliche Verdauung, wie von Shulman et al., 2007, Clinical Infectious Diseases

Escherich ausführlich beschrieben Bakterium coli commune (der gemeinsame Dickdarmbazillus, heute bekannt als Escherichia coli) und Bakterium lactis aërogenes (jetzt bekannt als Klebsiella pneumoniae). Er demonstrierte ihre Fermentationseigenschaften und die Natur des während der Fermentation erzeugten Gases und zeigte, dass das Wachstum unter anaeroben Bedingungen vollständig von der Kohlenhydratfermentation abhängig war. Mit dem Dogma brechend, kam Escherich zu dem Schluss, dass die Rolle der Darmflora bei der Ernährung bestenfalls untergeordnet sei.

Nur am Rande Ihrer Hauptfrage: E colis zweiter Boom Mitte des 20. Jahrhunderts, wo es in das Gebiet der Genetik eindrang (das zuvor von anderen Organismen besetzt wurde) erfolgte aufgrund der Entdeckung der Fähigkeit, DNA zwischen Individuen auszutauschen - wie von Telis et al. 2014: A Bibliometrics History of the Journal GENETICS (… was dann weitere Entdeckungen in Bezug auf den Umgang und die Manipulation von DNA fördern würde… ).


Als ich deine Frage gelesen habe war das erste was mir in den Sinn kam Escherichia coli ist eines der häufigsten Bakterien im menschlichen Stuhl. Natürlich ist die Leichtigkeit des Auffindens und Sammelns des Bakteriums (ich behaupte nicht, dass die moderne Quelle von E coli ist menschlicher Kot, ich meine nicht heute!) kann nicht der einzige (oder der wichtigste) Faktor sein.

Daher möchte ich Ihnen eine Liste von Faktoren geben - welche wahrscheinlich haben die Forschungen des frühen 20 E coli als Model - Zitat von Geoffrey Cooper "Die Zelle: Ein molekularer Ansatz" (2000).

Er fängt an, über Molekularbiologie zu sprechen…

E coli ist für Molekularbiologen sowohl wegen seiner relativen Einfachheit als auch wegen der Leichtigkeit, mit der es vermehrt und im Labor untersucht werden kann, besonders nützlich. Das Genom von E coliB. besteht aus etwa 4,6 Millionen Basenpaaren und kodiert für etwa 4000 verschiedene Proteine. Die geringe Größe des E coli Genom bietet offensichtliche Vorteile für die genetische Analyse, und die Sequenz des gesamten E coli Genom bestimmt.

… was interessant ist, aber natürlich nichts mit deiner Frage zu tun hat.

In den folgenden Absätzen listet er jedoch eine Reihe von Merkmalen auf, die für diese Frage relevant sind:

  • Experimente werden durch das schnelle Wachstum von E coli unter genau definierten Laborbedingungen. Je nach Kulturbedingungen, E coli alle 20 bis 60 Minuten teilen.

  • Eine klonale Population von E coli, bei dem alle Zellen durch Teilung einer einzelnen Ursprungszelle gewonnen werden, leicht als Kolonie isoliert werden, die auf halbfestem Agar-enthaltendem Medium gezüchtet wird.

  • Da sich Bakterienkolonien mit bis zu 108 Zellen über Nacht entwickeln können, ist die Selektion genetischer Varianten von an E coli Stamm - zum Beispiel Mutanten, die gegen ein Antibiotikum wie Penicillin resistent sind - ist einfach und schnell.

  • Die Nährstoffmischungen, in denen E coli Am schnellsten teilen sich Glukose, Salze und verschiedene organische Verbindungen wie Aminosäuren, Vitamine und Nukleinsäurevorläufer. Jedoch, E coli kann auch in viel einfacheren Medien wachsen, die nur aus Salzen, einer Stickstoffquelle (wie Ammoniak) und einer Kohlenstoff- und Energiequelle (wie Glukose) bestehen.

Es ist auch erwähnenswert, dass trotz einiger pathogener Stämme die meisten natürlich vorkommenden Stämme von E coli sind harmlos.


Quelle: Cooper, G. (2000). Die Zelle: Ein molekularer Ansatz. Sunderland (MA): Sinauer Associates.


Erfolge im öffentlichen Gesundheitswesen, 1900-1999: Bekämpfung von Infektionskrankheiten

Die Zahl der Todesfälle durch Infektionskrankheiten ist in den Vereinigten Staaten im 20. Jahrhundert deutlich zurückgegangen (Abbildung 1). Dieser Rückgang trug zu einem starken Rückgang der Säuglings- und Kindersterblichkeit (1,2) und zum Anstieg der Lebenserwartung um 29,2 Jahre bei (2). 1900 ereigneten sich 30,4 % aller Todesfälle bei Kindern unter 5 Jahren, 1997 waren es nur 1,4 %. 1900 waren Lungenentzündung, Tuberkulose (TB) sowie Durchfall und Enteritis die drei häufigsten Todesursachen, die (zusammen mit Diphtherie) ein Drittel aller Todesfälle verursachten (Abbildung 2). Von diesen Todesfällen betrafen 40 % Kinder unter 5 Jahren (1). 1997 entfielen 54,7 % aller Todesfälle auf Herzkrankheiten und Krebserkrankungen, wobei 4,5 % auf Lungenentzündung, Influenza und eine Infektion mit dem humanen Immunschwächevirus (HIV) zurückzuführen waren (2). Trotz dieses allgemeinen Fortschritts ereignete sich im 20 so kurz während eines Krieges oder einer Hungersnot in der Welt (3). Die 1981 erstmals erkannte HIV-Infektion hat eine noch im Gange befindliche Pandemie verursacht, von der 33 Millionen Menschen betroffen sind und die schätzungsweise 13,9 Millionen Todesfälle verursacht hat (4). Diese Episoden veranschaulichen die Volatilität der Sterberaten durch Infektionskrankheiten und die Unvorhersehbarkeit des Auftretens von Krankheiten.

Die Maßnahmen der öffentlichen Gesundheit zur Bekämpfung von Infektionskrankheiten im 20. Jahrhundert basieren auf der Entdeckung von Mikroorganismen im 19. Jahrhundert als Ursache vieler schwerer Krankheiten (z. B. Cholera und TB). Die Krankheitsbekämpfung resultierte aus der Verbesserung der sanitären Einrichtungen und Hygiene, der Entdeckung von Antibiotika und der Einführung universeller Impfprogramme für Kinder. Wissenschaftliche und technologische Fortschritte spielten in jedem dieser Bereiche eine wichtige Rolle und sind die Grundlage für die heutigen Krankheitsüberwachungs- und Kontrollsysteme. Wissenschaftliche Erkenntnisse haben auch zu einem neuen Verständnis der sich entwickelnden Beziehung zwischen Mensch und Mikroben beigetragen (5).

KONTROLLE VON INFEKTIONSKRANKHEITEN

Die Bevölkerungsverschiebung des 19. Jahrhunderts von Land zu Stadt, die mit Industrialisierung und Einwanderung einherging, führte zu einer Überbelegung armer Wohnungen mit unzureichender oder nicht vorhandener öffentlicher Wasserversorgung und Abfallentsorgung. Diese Bedingungen führten zu wiederholten Ausbrüchen von Cholera, Ruhr, TB, Typhus, Influenza, Gelbfieber und Malaria.

Um 1900 begann jedoch die Häufigkeit vieler dieser Krankheiten aufgrund von Verbesserungen der öffentlichen Gesundheit zu sinken, deren Umsetzung bis ins 20. Jahrhundert andauerte. Lokale, bundesstaatliche und bundesstaatliche Bemühungen zur Verbesserung der sanitären Einrichtungen und Hygiene verstärkten das Konzept kollektiver Maßnahmen zur "öffentlichen Gesundheit" (z. B. zur Vorbeugung von Infektionen durch Bereitstellung von sauberem Trinkwasser). Bis 1900 hatten 40 der 45 Bundesstaaten Gesundheitsämter eingerichtet. Die ersten Gesundheitsämter der Kreise wurden 1908 eingerichtet (6). Von den 1930er bis in die 1950er Jahre machten staatliche und lokale Gesundheitsbehörden erhebliche Fortschritte bei der Prävention von Krankheiten, darunter Abwasserentsorgung, Wasseraufbereitung, Lebensmittelsicherheit, organisierte Abfallentsorgung und öffentliche Aufklärung über Hygienepraktiken (z. B. Umgang mit Lebensmitteln und Händewaschen). Chlorierung und andere Behandlungen von Trinkwasser begannen in den frühen 1900er Jahren und wurden zu weit verbreiteten Praktiken der öffentlichen Gesundheit, wodurch das Auftreten von durch Wasser übertragenen Krankheiten weiter verringert wurde. Auch die Tuberkulose-Inzidenz ging zurück, da Verbesserungen in den Unterkünften die Menschenmenge verringerten und Tuberkulose-Kontrollprogramme eingeleitet wurden. Im Jahr 1900 starben 194 von 100.000 US-Einwohnern an Tuberkulose, die meisten waren Einwohner von städtischen Gebieten. 1940 (vor Einführung der Antibiotikatherapie) blieb TB eine der Haupttodesursachen, die rohe Sterberate war jedoch auf 46 pro 100.000 Personen gesunken (7).

Tier- und Schädlingsbekämpfung trugen auch zur Verringerung der Krankheit bei. National geförderte, staatlich koordinierte Impf- und Tierkontrollprogramme verhinderten die Übertragung von Tollwut von Hund zu Hund. Malaria, einst im Südosten der Vereinigten Staaten endemisch, wurde durch die regionalen Programme zur Mückenbekämpfung Ende der 1940er Jahre auf ein vernachlässigbares Niveau reduziert. Die Pest schwächte auch den U.S. Marine Hospital Service (der später zum Public Health Service wurde), führte Quarantäne- und Schiffsinspektionsaktivitäten sowie Nagetier- und Vektorkontrolloperationen durch. Der letzte große Ratten-assoziierte Seuchenausbruch in den Vereinigten Staaten ereignete sich zwischen 1924 und 1925 in Los Angeles. Dieser Ausbruch umfasste den letzten identifizierten Fall einer Übertragung der Pest von Mensch zu Mensch (durch Inhalation infektiöser Atemtröpfchen von hustenden Patienten) in diesem Land.

Strategische Impfkampagnen haben Krankheiten, die zuvor in den Vereinigten Staaten verbreitet waren, praktisch eliminiert, darunter Diphtherie, Tetanus, Poliomyelitis, Pocken, Masern, Mumps, Röteln und Haemophilus influenzae Typ-B-Meningitis (8). Mit der Zulassung des kombinierten Diphtherie- und Tetanustoxoid- und Keuchhustenimpfstoffs im Jahr 1949 führten staatliche und lokale Gesundheitsbehörden Impfprogramme ein, die sich hauptsächlich an arme Kinder richteten. 1955 führte die Einführung des Salk-Poliovirus-Impfstoffs dazu, dass der Bund staatliche und lokale Impfprogramme für Kinder finanzierte. Im Jahr 1962 wurde durch die Verabschiedung des Impfhilfegesetzes ein vom Bund koordiniertes Impfprogramm eingeführt – ein wegweisendes Gesetz, das kontinuierlich erneuert wurde und jetzt den Kauf und die Verabreichung einer vollständigen Palette von Kinderimpfstoffen unterstützt.

Der Erfolg von Impfprogrammen in den Vereinigten Staaten und Europa inspirierte das Konzept der "Ausrottung von Krankheiten" im 20. Jahrhundert - die Idee, dass eine ausgewählte Krankheit durch globale Zusammenarbeit von allen menschlichen Bevölkerungen ausgerottet werden könnte. 1977, nach einer jahrzehntelangen Kampagne, an der 33 Nationen teilnahmen, wurden die Pocken weltweit ausgerottet – ungefähr ein Jahrzehnt nachdem sie aus den Vereinigten Staaten und dem Rest der westlichen Hemisphäre ausgerottet worden waren. Polio und Drakunkulose könnten bis 2000 ausgerottet sein.

Antibiotika und andere antimikrobielle Arzneimittel

Penicillin wurde zu einem weit verbreiteten Medizinprodukt entwickelt, das eine schnelle und vollständige Behandlung bisher unheilbarer bakterieller Erkrankungen mit einem breiteren Wirkungsspektrum und weniger Nebenwirkungen als Sulfonamide ermöglicht. Penicillin wurde 1928 zufällig entdeckt und erst in den 1940er Jahren für medizinische Zwecke entwickelt, als es in erheblichen Mengen hergestellt und vom US-Militär zur Behandlung von kranken und verwundeten Soldaten verwendet wurde.

Antibiotika werden seit 57 Jahren zivil eingesetzt (siehe Kasten 1) und haben Menschen mit Streptokokken- und Staphylokokkeninfektionen, Gonorrhoe, Syphilis und anderen Infektionen das Leben gerettet. Es wurden auch Medikamente entwickelt, um virale Erkrankungen (z. B. Herpes und HIV-Infektion), Pilzerkrankungen (z. B. Candidiasis und Histoplasmose) und parasitäre Erkrankungen (z. B. Malaria) zu behandeln. Der Mikrobiologe Selman Waksman leitete einen Großteil der frühen Forschungen zur Entdeckung von Antibiotika (siehe Kasten 2). Das Aufkommen von Arzneimittelresistenzen bei vielen Organismen macht jedoch einige der therapeutischen Wunder der letzten 50 Jahre zunichte und unterstreicht die Bedeutung der Krankheitsprävention.

TECHNOLOGISCHE FORTSCHRITTE BEI ​​DER ERKENNUNG UND ÜBERWACHUNG VON INFEKTIONSKRANKHEITEN

Technologische Veränderungen, die die Kapazität zur Erkennung, Diagnose und Überwachung von Infektionskrankheiten verbesserten, umfassten die Entwicklung serologischer Tests zu Beginn des Jahrhunderts und in jüngerer Zeit die Entwicklung molekularer Assays auf der Grundlage von Nukleinsäure- und Antikörpersonden. Der Einsatz von Computern und elektronischen Kommunikationsformen verbesserte die Fähigkeit, Daten zur Krankheitsüberwachung zu sammeln, zu analysieren und zu verbreiten.

Serologische Tests wurden in den 1910er Jahren eingesetzt und sind zu einem grundlegenden Werkzeug zur Diagnose und Kontrolle vieler Infektionskrankheiten geworden. Syphilis und Gonorrhoe beispielsweise waren zu Beginn des Jahrhunderts weit verbreitet und vor allem in den Latenzstadien schwer zu diagnostizieren. Das Aufkommen serologischer Tests auf Syphilis trug dazu bei, dieses Problem der öffentlichen Gesundheit genauer zu beschreiben und die Diagnose einer Infektion zu erleichtern. In New York City beispielsweise zeigten serologische Tests im Jahr 1901, dass 5 bis 19 % aller Männer syphilitische Infektionen hatten (9).

Virusisolierung und Gewebekultur

Um die Jahrhundertwende kamen die ersten Virusisolationstechniken zum Einsatz. Dabei wurde infiziertes Material durch sukzessive kleinere Siebe gesiebt und Versuchstiere oder Pflanzen geimpft, um zu zeigen, dass die gereinigte Substanz die krankheitserregende Aktivität beibehielt. Die ersten "gefilterten" Viren waren das Tabakmosaikvirus (1882) und das Maul- und Klauenseuchevirus von Rindern (1898). Das US-Armeekommando unter Walter Reed filterte 1900 das Gelbfiebervirus. Die anschließende Entwicklung der Zellkultur in den 1930er Jahren ebnete den Weg für die großtechnische Produktion von Lebendimpfstoffen oder durch Hitze abgetöteten Virusimpfstoffen. Negative Färbetechniken zur Visualisierung von Viren unter dem Elektronenmikroskop waren Anfang der 1960er Jahre verfügbar.

Im letzten Viertel des 20. Jahrhunderts hat die Molekularbiologie leistungsstarke neue Werkzeuge zum Nachweis und zur Charakterisierung infektiöser Krankheitserreger bereitgestellt. Die Verwendung von Nukleinsäurehybridisierungs- und Sequenzierungstechniken hat es ermöglicht, die Erreger bisher unbekannter Krankheiten (z.

Molekulare Werkzeuge haben eine verbesserte Kapazität, um die Übertragung neuer Bedrohungen zu verfolgen und neue Wege zu ihrer Prävention und Behandlung zu finden. Wäre AIDS vor 100 Jahren aufgetreten, als laborbasierte Diagnosemethoden noch in den Kinderschuhen steckten, wäre die Krankheit möglicherweise über viele Jahrzehnte ein mysteriöses Syndrom geblieben. Darüber hinaus wurden die Medikamente zur Behandlung von HIV-Infizierten und zur Verhinderung der perinatalen Übertragung (z. B. Replikationsanaloga und Protease-Inhibitoren) basierend auf einem modernen Verständnis der retroviralen Replikation auf molekularer Ebene entwickelt.

HERAUSFORDERUNGEN FÜR DAS 21. JAHRHUNDERT

Der Erfolg bei der Verringerung der Morbidität und Mortalität durch Infektionskrankheiten in den ersten drei Vierteln des 20. Das Auftreten von AIDS, das Wiederauftreten von TB (einschließlich multiresistenter Stämme) und ein allgemeiner Anstieg der Sterblichkeit durch Infektionskrankheiten in den 1980er und frühen 1990er Jahren (Abbildung 1) liefern jedoch zusätzliche Beweise dafür, dass sich Mikroben entwickeln können, neue Krankheiten werden auftreten. Das Auftreten neuer Krankheiten unterstreicht die Bedeutung der Krankheitsprävention durch kontinuierliche Überwachung der zugrunde liegenden Faktoren, die das Auftreten oder Wiederauftreten von Krankheiten begünstigen können.

Die Molekulargenetik hat eine neue Einschätzung der bemerkenswerten Fähigkeit von Mikroben ermöglicht, sich auf unvorhersehbare und dynamische Weise zu entwickeln, sich anzupassen und Arzneimittelresistenzen zu entwickeln (siehe Kasten 3). Resistenzgene werden auf Plasmiden von einem Bakterium auf ein anderes übertragen, und Viren entwickeln sich durch Replikationsfehler und Neusortierung von Gensegmenten und durch das Überspringen von Artengrenzen. Jüngste Beispiele für die mikrobielle Evolution sind das Auftreten eines virulenten Vogelgrippestamms in Hongkong (1997-98), der multiresistente W-Stamm von M. tuberkulose in den Vereinigten Staaten im Jahr 1991 (11) und Staphylococcus aureus mit verringerter Anfälligkeit für Vancomycin in Japan im Jahr 1996 (12) und in den Vereinigten Staaten im Jahr 1997 (13,14).

Für einen anhaltenden Erfolg bei der Bekämpfung von Infektionskrankheiten muss sich das öffentliche Gesundheitssystem der USA auf verschiedene Herausforderungen vorbereiten, darunter das Auftreten neuer Infektionskrankheiten, das Wiederauftreten alter Krankheiten (manchmal in arzneimittelresistenter Form), große lebensmittelbedingte Ausbrüche und Maßnahmen des Bioterrorismus. Die laufende Forschung zur möglichen Rolle von Infektionserregern bei der Entstehung oder Verstärkung bestimmter chronischer Krankheiten (einschließlich Diabetes mellitus Typ 1, einige Krebsarten [15-17] und Herzerkrankungen [18,19]) ist ebenfalls unerlässlich. Kontinuierlicher Gesundheitsschutz erfordert verbesserte Kapazitäten für die Krankheitsüberwachung und die Reaktion auf Ausbrüche auf lokaler, bundesstaatlicher, bundesstaatlicher und globaler Ebene Entwicklung und Verbreitung neuer Labor- und epidemiologischer Methoden Fortsetzung der Entwicklung antimikrobieller und Impfstoffe und laufende Erforschung von Umweltfaktoren, die das Auftreten von Krankheiten erleichtern ( 20).

Berichtet von: Nationales Zentrum für Umweltgesundheit Nationales Zentrum für Gesundheitsstatistik Nationales Zentrum für Infektionskrankheiten, CDC.


Die Geschichte der Mäusezucht für die Wissenschaft beginnt mit einer Frau in einer Scheune

In ihrem kleinen weißen Bauernhaus in Granby, Massachusetts, züchtete Abbie E. C. Lathrop eine Vielzahl von Kleintieren: Frettchen, Kaninchen, Meerschweinchen, Ratten und vor allem Mäuse. 1902 wurden ihre Mäuse die ersten, die in einem Labor für genetische Forschungen verwendet wurden&8212 und einige sind es noch heute.

Lathrop ist kein ausgebildeter Wissenschaftler, sondern wird oft als bloße Fußnote in der Geschichte der Krebsforschung dargestellt und als exzentrischer Bastler dargestellt, der sich seltsamerweise zu Mäusen hingezogen fühlte. Doch ein genauerer Blick zeigt, dass sie eine versierte Geschäftsfrau war, die zur Selfmade-Wissenschaftlerin wurde, deren sorgfältige und methodische Mäusezucht die moderne Krebsforschung vorangebracht und einen Standardorganismus der Wissenschaft geschaffen hat. Darüber hinaus veröffentlichte sie wissenschaftliche Arbeiten zu Mäusen und der Krebsvererbung, die den Weg für die zukünftige Krebsforschung bereiteten.

Die Mäuse, die Lathrop vor mehr als einem Jahrhundert mit der Zucht begann, haben erstaunliche Dinge getan. Seit den 1960er Jahren sind Mäuse die ersten Tiere, an denen die meisten Pharmaunternehmen neue Chemikalien testen, in der Hoffnung, sie auf den Menschen übertragen zu können. In den 1990er Jahren half die Labormaus beim Start des Human Genome Project. Weltweit berichtet Dan Engber in Schiefer, Wissenschaftler verwenden jedes Jahr fast 90 Millionen Ratten und Mäuse für ihre Experimente und Tests.

Natürlich haben Mausmodelle ihre eigenen Probleme. Die meisten Labormäuse sind heute stark überfüttert und genetisch von ihren natürlichen Cousins ​​​​geschieden, und Studien zeigen, dass sie Dinge wie menschliche Entzündungen schlecht nachahmen, aber es ist unbestreitbar, dass sie die Wissenschaft revolutioniert haben. Wer ist also die Frau hinter dem allgegenwärtigen Mausmodell?

Miss Abbie E.C. Lathrop in Granby. Neu gezeichnet aus dem Springfield Sunday Republican, 5. Oktober 1913. (Elsevier)

Ein unerwarteter Weg

Lathrop wurde 1868 in Illinois als Tochter zweier Schullehrer aus Granby geboren. Sie wurde bis zum Alter von 16 Jahren zu Hause unterrichtet, danach hatte sie zwei Jahre formale Schulbildung. Mit 19 wurde auch sie Lehrerin, aber die perniziöse Anämie, eine Erkrankung der roten Blutkörperchen, zwang sie nach wenigen Jahren in den Ruhestand. 1900 zog sie nach Granby, um sich in der Geflügelzucht zu versuchen. Das Geschäft scheiterte bald.

Zum Glück für die Geschichte wandte sie sich dann der Mäusezucht zu. Dies war im frühen 20. Jahrhundert nicht so ungewöhnlich, wie es heute den Anschein hat, dass die Zucht von Mäusen in Gefangenschaft mindestens bis in das Japan des 17. In den Vereinigten Staaten und Großbritannien erlebten schicke (alias domestizierte) Mäuse im frühen 20.

Lathrop begann ihr neues Unternehmen mit zwei Walzermäusen, einer Rasse, die für ihre Wipp- und Kreisbewegungen bekannt ist, die durch Mutationen des Innenohrs verursacht werden. Angefangen mit einem Männchen und einem Weibchen, die sie aus Wildmäusen gezüchtet hatte, vermehrte Lathrop ihren Bestand, bis er schließlich über 10.000 Mäuse erreichte, die in strohgefüllten Holzkisten untergebracht und mit Hafer und Crackern gefüttert wurden. Als erfahrene Züchterin war sie in der Lage, Merkmale auszuwählen, um cremige Buffs, weiße englische Zobel und andere wünschenswerte Fellvariationen für andere Mäusezüchter zu züchten. 

Doch ihre Kundschaft änderte sich schnell.

Im Jahr 1902 bestellte der Genetiker William Ernest Castle vom Bussey Institute of Boston der Harvard University seine erste Maus bei Lathrop. Castle, der sich besonders für die Genetik von Säugetieren interessierte, hatte herausgefunden, dass Mäuse mit ihrer kurzen Lebensdauer ein ideales Exemplar für die Forschung waren. Glücklicherweise hatte Lathrop bereits die Grundlagen geschaffen, die ihr Unternehmen zu einem idealen Lieferanten machen würden.

“Mauszüchter und -züchter haben die Aktivität der Mäusezüchtung in Gefangenschaft im Wesentlichen geroutiniert, lange bevor sich Wissenschaftler für die Maus als experimentellen Organismus interessierten,” schreibt die Biologiehistorikerin Karen Rader in ihrem Buch Mäuse herstellen: Tiere für die amerikanische biomedizinische Forschung standardisieren. Im Interview mit Smithsonian.com,Rader erläuterte: “Als Genetik aufkam, erkannten Genetiker schnell, was sie mit diesen schicken Tieren suchten, war ein Lager von Inzuchttieren, in dem bereits einiges an genetischer Kontrolle eingebaut war.”

Lathrop stellte bald fest, dass sie Aufträge für Mäuse in Pfund für Laboratorien ausführte.

Ein Foto der Granby Mouse Farm, wie sie heute aussieht. (anders)

Veröffentlichte Krebsforschung

Am Bussey Institute, Genetiker—und Eugeniker—C.C. Little wurde für Castles Mäusekolonie verantwortlich gemacht. Mit Mäusen von Lathrops Granby-Farm begann der Student Little mit Inzucht-Mausstämmen zu experimentieren und gelang es, stabile Stämme zu züchten, die Biologen und Genetiker als “pure” bezeichnen

1909 begann er mit Inzuchtversuchen mit seiner erfolgreichen stabilen Sorte. dba (verdünnte braune Non-Agutis). Er zeigte, dass Inzucht genetische Varianten aus demselben genetischen Bestand aussondern und erhalten kann. Für die Krebsforschung bedeutete dies einen stabilen Zuchtstamm, mit dem die biologische und genetische Natur von Krebs bei Mäusen untersucht werden konnte, die mit krebsartigen Tumoren ingezüchtet wurden – eine Erkenntnis, die die Mausmodellforschung bis heute prägt.

Zur gleichen Zeit hatte Lathrop ihre eigene Krebsforschung begonnen. Nachdem sie bei einigen ihrer Mäuse Hautläsionen bemerkt hatte, schickte sie Anfragen an ihre Forscherkunden, um zu fragen, ob auch ihre Mäuse Läsionen entwickelt hatten. Der bekannte Pathologe Leo Loeb von der University of Pennsylvania antwortete und sagte, er habe festgestellt, dass die Läsionen krebsartig seien. Obwohl die Briefe der Korrespondenz von Lathrop und Loeb verloren gegangen sind, wissen wir, dass daraus eine professionelle Zusammenarbeit entstand, die Pionierarbeit in der Krebsforschung hervorbrachte.

Lathrop begann 1910 mit der Durchführung von Experimenten mit Krebs- und Inzucht-Mäusenstämmen. Laut Rader stellt ihre Zusammenarbeit „die erste Arbeit dar, die den Zusammenhang zwischen bestimmten Mäusestämmen und der Vererbung von Krebs herstellte.&8221 Sie fanden heraus, dass die Die Inzidenz von Krebstumoren variierte zwischen den Mäusestämmen (oder -familien), was zu dem Schluss kam, dass die Nachkommen dem hochtumorreichen Stamm ähneln würden, wenn sich hochtumorreiche Stämme mit niedertumorarmen Stämmen verpaaren. Ihre Zusammenarbeit zeigte außerdem einen Zusammenhang zwischen Hormonen und Krebs: Bei weiblichen Mäusen mit Ovariektomie nahmen die Brusttumore ab, während die Tumoren bei trächtigen Mäusen zunahmen.

Zwischen 1913 und 1919 verfassten Lathrop und Loeb gemeinsam 10 wissenschaftliche Arbeiten auf der Grundlage ihrer Experimente, die in renommierten Zeitschriften erschienen, darunter die Zeitschrift für experimentelle Medizin und der Zeitschrift für Krebsforschung. Zu dieser Zeit war es höchst ungewöhnlich, dass eine Frau die volle Co-Autorenschaft erhielt. Little wird jedoch die grundlegende Arbeit zu Inzucht, Vererbung und Krebs zugeschrieben. 1929 gründete Little das Jackson Laboratory (JAX), heute ein geschäftiges Zentrum für Krebsforschung und der weltweit führende Anbieter von Labormäusen mit über 7.000 einzigartigen genetischen Stämmen.

Er begann seine Bemühungen mit Mäusen, die aus Lathrops Bestand stammten. Heute liefert JAX immer noch Mäusestämme, die von Lathrops Granby-Farm stammen.

Lathrop wird zugeschrieben, Mäuse an Labore im ganzen Land zu liefern, aber nur wenige Geschichten erkennen ihre eigene wissenschaftliche Arbeit an. Dieser Brief von W.E. Castle an Michael Potter bestätigt, dass die im Bussey verwendeten Mäuse von Lathrop bezogen wurden. (Elsevier / Michael Potter)

Das Bild einer Kuriosität

Rader behauptet, es sei schwer zu glauben, dass Little nichts von Lathrops Experimenten mit Inzucht und Krebs wusste, die gleichzeitig mit seinen stattfanden. Doch die einzige Anerkennung, die Little Lathrop und ihrer Arbeit gab, war in einem Artikel von 1931, in dem er sie als „Mauszüchter von mehr als gewöhnlicher Sorgfalt und wissenschaftlichem Interesse“ bezeichnete in seiner eigenen dba Belastung.

Der irrtümliche Hinweis von Little auf Lathrop spiegelt ein größeres systemisches Problem wider, das Frauen Chancen und Anerkennung verweigerte. “Lathrop hat diese hochmodernen Sachen zum Teil zu Hause gemacht, weil es an Universitäten noch keine gut etablierten Räume für diese Arbeit gab,” Rader. “Und soweit es sie gab, waren sie von Männern besetzt.”

Die Presse stellte Lathrop vor eine weitere Herausforderung, da er als die Wissenschaftlerin angesehen wurde, die sie zweifellos war. Während sie ihr Mäusegeschäft leitete, wurde sie ständig in lokalen und nationalen Medien, einschließlich der Los Angeles Zeiten, Die New York Times, und Die Washington Post. Diese Artikel stellten sie als Kuriosität dar und betonten, dass sie dem geschlechtsspezifischen Stereotyp widersprach, dass Frauen Angst vor Mäusen haben.

Ein 1907 L.A. Zeiten Artikel über Lathrop eröffnet mit: “Angesichts aller Traditionen über die wahnsinnige Angst von Frauen vor einer Ratte oder Maus verdient Miss Abbie EC Lathrop ihren Lebensunterhalt damit, eine Ratten- und Mäusefarm zu leiten.” Andere beschrieben ihre Farm als “queer” (im Sinne von ungerade), obwohl es in Wirklichkeit nicht mehr “queer” war als das, was in Labors gemacht wurde. Auch heute noch wird Lathrop oft als “exzentrisch”— beschrieben, doch ihre Arbeit veranschaulicht das Gegenteil.

Lathrops wissenschaftliche Notizbücher, die jetzt bei JAX aufbewahrt werden, zeigen eine Frau, die bei ihrer Arbeit sowohl vorsichtig als auch methodisch war. Sie führte detaillierte Zuchtaufzeichnungen all ihrer verschiedenen Stämme, schrieb Geschichten über bestimmte Zuchtfamilien auf und zeichnete ihre eigenen Beobachtungen verschiedener Stämme und Rassen auf. Ihre Arbeit in der Genetik und Krebsforschung lebt sowohl in ihrer veröffentlichten Forschung als auch in den Mäusen weiter, die immer wieder in Labors auf der ganzen Welt wandern.

Wenn sie auch seltsam war, wurde sie durch soziale Stereotypen und kulturelle Zwänge zu einer Frau gemacht, die auf unerwartete Weise Wissenschaft praktizierte.


Spontane Generation

Ein Beispiel für spontane Zeugung, wie es der französische Jurist und Naturforscher Claude Duret 1605 über mythische Pflanzen illustriert, Histoire bewundernswert des plantes et herbes esmerveillables et Miraculeuses en nature.

Auf der Rennstrecke

Loebs Traum vom „Spielen“ mit dem Leben konnte erst verwirklicht werden, wenn wir eine bessere Vorstellung von den Bestandteilen des Lebens hatten. Diese Komponenten zu finden war die Mission der Molekularbiologie des 20. Jahrhunderts, die größtenteils aus den Untersuchungen der chemischen Struktur und Zusammensetzung von Proteinen mit Röntgenkristallographie hervorgegangen ist, die in den 1930er bis 1950er Jahren von J. Desmond Bernal, William Astbury, Dorothy . entwickelt wurden Hodgkin, Linus Pauling und andere. Diese Moleküle sahen aus wie winzige Maschinen, die von der Evolution entworfen und geformt wurden, um ihre Aufgabe zu erfüllen.

Aber natürlich ging es in der Molekularbiologie nicht nur um Proteine. What really changed the game was the discovery of what seemed to be the source of life’s miraculous organization. It was not, as many had anticipated, a protein that carried the information needed to regulate the cell, but rather a nucleic acid: DNA. When James Watson and Francis Crick used the X-ray crystallographic data of others, including that of Rosalind Franklin, to deduce the double-helical shape of the molecule in 1953, not all scientists believed that DNA was the vehicle of the genes that appeared to pass instructions from one generation to the next. Watson and Crick’s work showed how that information was encoded—in a digital sequence of molecular building blocks along the helix—and moreover implied a mechanism by which the information could be copied during replication.

If these were indeed “instructions for life,” then chemistry could be used to modify them. That was the business of genetic engineering, which took off in the 1970s when scientists figured out how to use natural enzymes to edit and paste portions of “recombinant” DNA. Molecular biologists were now thinking about life as a form of engineering, amenable to design.

Synthetic biology has sometimes been called “genetic engineering that works”: using the same cut-and-paste biotechnological methods but with a sophistication that gets results. That definition is perhaps a little unfair because “old-fashioned” genetic engineering worked perfectly well for some purposes: by inserting a gene for making insulin into bacteria, for example, this compound, vital for treating diabetes, can be made by fermentation of microorganisms instead of having to extract it from cows and pigs. But deeper interventions in the chemical processes of living organisms may demand much more than the addition of a gene or two. Such interventions are what synthetic biology aims to achieve.

Take the production of the antimalarial drug artemisinin, the discovery of which was the subject of the 2015 Nobel Prize in medicine. This molecule offers the best protection currently available against malaria, working effectively when the malaria parasite has developed resistance to most other common antimalarials. Artemisinin is extracted from a shrub cultivated for the purpose, but the process is slow and has been expensive. (Prices have dropped recently.) Over the past decade researchers at the University of California, Berkeley, have been attempting to engineer the artemisinin-making machinery of the plant into yeast cells so that the drug can be made cheaply by fermentation. It’s complicated because the molecule is produced in a multistep process involving several enzymes that have to transform the raw ingredient stage by stage into the complex final molecule, with each step being conducted at the right moment. In effect this means equipping yeast with the genes and regulating processes needed for a whole new metabolic pathway, or sequence of biochemical reactions—an approach called metabolic engineering, amounting to the kind of designed repurposing of an organism that is a core objective of synthetic biology.

Artemisinin synthesis in yeast (more properly, semisynthesis since it begins with a precursor of the drug molecule harvested from natural sources) is often called the poster child of synthetic biology—not just because it works (the process is now entering commercial production) but because it has unambiguously benevolent and valuable aims. Creating useful products, advocates say, is all they are trying to do: not some Frankenstein-style creation of unnatural monstrosities but the efficient production of much-needed drugs and other substances, ideally using biochemical pathways in living organisms as an alternative to the sometimes toxic, solvent-laden processes of industrial chemistry.

Imagine bacteria and yeast engineered to make “green” fuels, such as hydrogen or ethanol, fed by plant matter and negating the need to mine and burn coal and oil. Imagine easily biodegradable plastics produced this way rather than from oil. Craig Venter, who made his name (and money) developing genome-decoding technologies, has made such objectives a central element of the research conducted at his J. Craig Venter Institute (JCVI) in Rockville, Maryland. Last April scientists at JCVI announced that they have devised ways to engineer microalgae called diatoms, using the methods of synthetic biology, so that they join bacteria and yeast as vehicles for making biofuels and other chemicals.

In effect JCVI is trying to create microscopic living factories. The same motive underpinned Venter’s creation of an alleged “synthetic organism” in 2010, another of the milestones of synthetic biology—the Frankenbug, in the words of some opponents of genetic manipulation. Whether those microbes can be considered truly artificial is a matter of debate. The JCVI scientists used well-established chemical methods to build an entire genome from DNA, based on that of a naturally occurring bacterium called Mykoplasmen-Mykoide but with some genetic sequences added and others omitted. They then took cells of a closely related Mycoplasma bacterium, extracted their pristine DNA, inserted the artificial replacements, and “booted up” the modified cells as if they were computers with a new operating system. The cells worked just as well with their new bespoke DNA.

The aim was not some hubristic demonstration of control over life but rather verification that bacterial cells can be fitted with new instructions that might be a stripped-down, simplified version of their natural ones: a kind of minimal chassis on which novel functions can be designed and constructed. The full genetic workings of even the simplest bacteria are not completely understood, but if their genomes can be simplified to remove all functions not essential to sustain life, the task of designing new genetic pathways and processes becomes much easier. This March the JCVI team described such a “minimal” version of Mycoplasma Bakterium.

The language of this new science is that of the engineer and designer: the language of the artisan, not of the natural philosopher discovering how nature works. This way of thinking about life goes back at least to René Descartes, who conceived of the body as a machine, a mechanism of levers, pulleys, and pumps. In Descartes’s time this clockwork view of life could lead to nothing more than crude mechanical simulacra: the automata fashioned by watchmakers and inventors, ingenious and uncanny contraptions in themselves but ultimately no more animated than the hands of a clock. But synthetic biology brings the Newtonian, mechanistic philosophy to the very stuff of life, to the genes and enzymes of living cells: they are now the cogs and gears that can be filed, spring-loaded, oiled, and assembled into molecular mechanisms. Then we have no mere simulation of life but life itself.

The language of this new science is that of the engineer and designer: the language of the artisan, not of the natural philosopher discovering how nature works.

Yet the language now is not so much that of clockwork and mechanics but of the modern equivalent: our latest cutting-edge technology, namely electronics and computation. Ever since biologists François Jacob, Jacques Monod, and others showed in the 1960s how genes are regulated to control their activity, genetics has adopted the lexicon of cybernetic systems theory, which was developed to understand how to control complex technological systems and found applications in electronic engineering, robotics, communications, and computation. That is to say, different components in the genome are said to be linked into circuits and regulated by feedback loops and switches as they pass signals from one unit to another.


VILLA CLARA, CAGLIARI’S PSYCHIATRIC HOSPITAL, SARDINIA, ITALY

We are at the beginning of the twentieth century: the psychiatric hospital Villa Clara in Cagliari is an institution which ensures the implementation of the most advanced “psychiatric therapy”. In actual fact, this advanced therapy consisted in the 𠇊pplication of leeches, drastic purges, cold baths and in procuring groups of blisters, usually on the neck” [58]. Villa Clara’s story is contained in 16,000 archival files, still being sorted, but if there were any need of corroboration, its history is screamed out in the words of Giovanna M., Villa Clara’s Register 1. Giovanna M. was admitted to Genoa hospital when she was 10 years old, diagnosed with madness: she had a terrible headache, but preferred to say she had a 𠇌ranky head” and three years later in 1836, she was moved to the basement of Cagliari’s Sant𠆚ntonio Hospital [58]. She describes this 𠇊s dark as a tomb, the only place on the island where the mad. or the insane. or the maniacs. or the idiots - as we were called- were locked up. We were 50 people in chains, in the smell of our own excrement, with rats gnawing at our ulcers. ” [58]

In the early years of the new century, after a long break at Cagliari’s new San Giovanni di Dio Hospital, Giovanna M., now old and blind, was transferred to the Villa Clara psychiatric hospital, where Professor Sanna Salaris formulated a diagnosis of 𠇌onsecutive dementia” and hysteria. But despite being constantly subjected to careful clinical observation, she was only treated here with “tonics . two eggs and milk . balneotherapy, rhubarb tinctures, potassium iodide, lemonade and laudanum, insulin and laxatives, a lot of purgatives: always, for everything”. Giovanna M. died in the mental hospital in 1913 due to 𠇊geing of organs” and “senile marasmus”, as confirmed in the necrological report. Anna Castellino and Paola Loi know all there is to know about Giovanna M. and end their work Oltre il cancello with Giovanna’s words: 𠇊nd you𠆝 better believe it: I was 90 years old. Fate, which takes away healthy, free, young people, never pardoned me once. It has let me live all this time, quite lucid, but closed up in here . since I was ten years old . eighty years in psychiatric hospital for a headache” [58].


Time Heals all Wounds

We haven’t gotten any smarter about how we are coding artificial intelligence, so what changed? It turns out, the fundamental limit of computer storage that was holding us back 30 years ago was no longer a problem. Moore’s Law, which estimates that the memory and speed of computers doubles every year, had finally caught up and in many cases, surpassed our needs. This is precisely how Deep Blue was able to defeat Gary Kasparov in 1997, and how Google’s Alpha Go was able to defeat Chinese Go champion, Ke Jie, only a few months ago. It offers a bit of an explanation to the roller coaster of AI research we saturate the capabilities of AI to the level of our current computational power (computer storage and processing speed), and then wait for Moore’s Law to catch up again.


In the Beginning There Was Genentech (or the Beginning of the Genetic Gold Rush)

The value of Herbert Boyer’s stock in Genentech, the company he and venture capitalist Robert Swanson founded in 1976, skyrocketed to $80 million the day it floated. 46 Having been told many times by his colleagues, “you’ll never get rich in a university” 47 he not only decisively proved them wrong, but in transitioning from research scientist at University of California, San Francisco (UCSF) into a hybrid scientist-entrepreneur at Genentech, he started a new gold rush. This time, the money was to come not from gold, a naturally occurring mineral extracted from the earth, but from patenting the many thousands of naturally occurring genes and proteins using the new biotechnological process which he pioneered with Stanley Cohen and other colleagues at UCSF and Stanford in 1973 (Cohen et al 1973). Professors Boyer’s and Cohen’s revolutionary invention enabled genetic material from a complex organism (e.g., a human gene) to be transferred to a simple organism (e.g., a yeast or bacterium cell) for the purpose of having the simple organism express the protein encoded within the transferred foreign genetic material. In short, their recombinant DNA technology enabled the commercial scale biological-production of extremely pure proteins. However, they came very close to losing the opportunity to patent their invention (Hughes 2001). In those days the idea that university scientists would apply for a patent over the research product, funded mostly, if not entirely, by public money was still frowned upon within academic circles (Hughes 2001).


Ian Deary and Robert Sternberg have been writing about intelligence differences since 1982 and 1977, respectively. As Deary was retiring at the end of 2020, they discussed an idea for their first joint paper. They composed five questions related to research on intelligence differences, about: attempts to find cognitive components of intelligence the place of theory in intelligence research the breadth of the concept of intelligence hard problems in intelligence and the use of cognitive tests in the real world. They answered them separately and then responded to the other's answers.

Editor’s note: This paper is something different for Intelligence. It is a discussion between two senior researchers about their differing views on five key aspects of intelligence research developed over their long careers. Both of the discussants established the rules for their correspondence (detailed in the paper) and the outcome was submitted as a query as to whether such a paper would be of interest to Intelligence. After consultation with both Associate Editors, the manuscript received two reviews (not blind for obvious reasons) and it was revised accordingly. We believe there is educational and historical value to such an exchange and it may even generate new ideas for research. We are open to publishing similar Discussions from other researchers. If you have suggestions of dyads that might develop such a discussion of differing views, please check with the EIC.


2 COLLECTORS, CURATORS, AND AUTHORS

Strasser's point in excavating these histories is not that the comparative practices of natural history never went away, but rather that the development of the experimental life sciences produced a hybrid culture in which collection and experiment, the comparative and the exemplary, went hand in hand.

This insight is a crucial one, not least because it provides a new perspective on some contentious issues that have accompanied the rise of data-driven biology. These concern the importance of curatorship, the ownership of data in collections, and the authorship of knowledge extracted from them. As Strasser observes, the hybridization of collection and experiment in experimental biology brought together distinct research cultures, with distinct ideas about who owns the products of research and what counts as a valuable contribution to knowledge. Tensions arose almost inevitably.

When the chemist Margaret Dayhoff (working with collaborators) assembled, edited, and annotated the collection of published protein sequences that became the Atlas of Protein Sequence and Structure in the early 1960s, she assumed a role that was familiar in the world of collecting: curator. And, like earlier students of nature who gathered and sorted specimens into cabinets of curiosity or natural history museums, often sourcing these from paid collectors, correspondents, and markets, Dayhoff took ownership over her collection. The book was copyrighted, which created limits on its redistribution, and these limits were reinforced by Dayhoff's insistence that purchasers of the book, or the magnetic tapes that followed, not share the resource further.

Many biologists were ignorant of the labor of curation undertaken by Dayhoff and her colleagues and baffled, or even dismayed, by her insistence that this curatorial labor be rewarded with ownership of collected data. Among experimenters, the prevailing view was that the “mere” act of compiling did not qualify as a contribution to knowledge—this despite the fact that Dayhoff's sequence datasets gained ever more popularity among researchers over time and that their creation demanded expertise and imagination.

As Strasser observes, “The idea that the compilation of sequences, unlike their experimental determination, did not count as a scientific contribution would plague the development of sequence databases for the decades to come, and explains a great deal about why science funding agencies resisted funding them” (p. 142). This perspective also created problems for data curators who became increasingly indispensable to biological research and yet struggled to gained recognition as scientists.

Although funding presented a serious problem for the development and maintenance of biological databases, it was not the only existential concern these resources faced. As laboratory scientists generated ever more sequence data, it became harder and harder for curators like Dayhoff to keep up with their output. Dayhoff wanted biochemists and other experimenters to voluntarily contribute their data, thereby reducing the labor of scouring publications for them. But these experimentalists, by virtue of an individualist reward structure based around “revealing singular facts of nature in the laboratory” (p. 225), were possessive of these data, wary of their use by other researchers, and resentful of the fact that Dayhoff would “profit” from their free donation to the Atlas.

Keeping up with a rush of data demanded a new model, one that better conformed to experimenters' views about ownership. When Dayhoff competed for a grant to found a national sequence database in the United States, she lost out to Walter Goad of the Los Alamos Scientific Laboratory. Dayhoff had vastly more experience and was based at a leading center for the use of computers in biomedical research, but her proprietary publishing model felt increasingly out of sync with community expectations. Instead it was Goad's nonproprietary, publicly accessible database that went on to become the US national sequence database, GenBank. (The European Molecular Biology Laboratory had already agreed on the same model for its sequence database.) As curator, Goad claimed no ownership in the data he acquired from researchers nor did he charge a fee for access.

The decision to go open access did not resolve all possible tensions. A final key element of Goad's successful navigation of the norms of experimental biology lay in his deference to journals, and journal editors, as the verifiers of the data that would enter his collection. Dayhoff had sometimes accepted unpublished sequences, a choice that made her, as editor, the arbiter of what counted as reliable or unreliable, and therefore able to grant authorship to providers of sequences through their publication in her dataset. By asking that journal editors insist on deposition of sequences as part of the publication process, Goad (again following the approach of the European Molecular Biology Laboratory) ensured that the new database adhered to existing norms of authorship among experimental biologists—and not those that prevailed in the world of museums and collections.


↵ 2 Nature has neither core nor shell she is everything at the same time. This quotation, from Goethe, was used on the title page of Just's definitive book (J ust 1939b). It epitomizes his holistic view of the cell.

↵ 3 I am using the vocabulary of the time.

↵ 4 One enthusiastic Just supporter was Libbie Hyman, a student at the University of Chicago. She later wrote A Laboratory Manual for Comparative Vertebrate Anatomy, memorized dutifully if not enthusiastically by virtually every zoology student of my vintage. It was a best seller and she enjoyed pointing out that the royalties permitted her the leisure to work on her beloved invertebrates.

↵ 5 Later Loeb moved into more chemical subjects and became a founding father of protein chemistry, greatly respected for his innovation and his research standards (L oeb 1922 C ohen 1985). He was Sinclair Lewis's model for the character Gottlieb in Arrowsmith.

↵ 6 It is easy to see in this article why Just was regarded in some circles as hypercritical and arrogant. He did not hesitate to criticize Morgan, Jennings, Conklin, Demerec, and even his close friend Lillie, sometimes with sarcasm. Here is an example: “In passing, I may point out that Plough and Ives's statement of their method can not be called lucid” (J ust 1936, p. 307).