„Elektro-Mobilität“- – Studie: „Elektro-Autos“ sind nicht besser für die Umwelt als „Benziner“ /// Wie „Microsoft“ und „Google“ KREBS besiegen wollen?!

https://deutsche-wirtschafts-nachrichten.de/2017/11/11/studie-elektroautos-sind-nicht-besser-fuer-die-umwelt-als-benziner/
****************************

Studie: Elektroautos sind nicht besser für die Umwelt als Benziner

Große Elektroautos sind – von der Herstellung bis zur Verschrottung gerechnet – für das Klima schädlicher als herkömmliche Kleinwagen.

Ein elektrisch angetriebener BMW i3 lädt an einer Ladesäule in der Innenstadt von Leipzig. (Foto: dpa)

Ein elektrisch angetriebener BMW i3 lädt an einer Ladesäule in der Innenstadt von Leipzig. (Foto: dpa)

Neueste Studien deuten darauf hin, dass Elektroautos nicht per se besser für die Umwelt sind als Autos mit Verbrennungsmotor. Die Umweltschädlichkeit hänge vielmehr von einer ganzen Reihe von Faktoren ab, berichtet die Financial Times unter Berufung auf eine Studie des Massachusetts Institute of Technology.

Berechnet man den Ausstoß von Kohlenstoffdioxid (CO2) sowie den Ressourcenverbrauch während des gesamten Lebenszyklus eines Elektroautos, so wird das in den Medien transportierte Bild vom emissionsfreien Elektroauto schnell wiederlegt. Beispielsweise ist es nicht ungewöhnlich, dass die Energie- und Umweltbilanz kleinerer Autos mit Verbrennungsmotor oftmals besser sei als bei größeren Elektroautos.

Die FT beschreibt diesen Sachverhalt durch einen Vergleich des Kleinwagens Mitsubishi Mirage mit einer größeren Elektrolimousine vom Typ Model S des Autobauers Tesla. Untersucht man die für die gesamte Produktion und die Entsorgung notwendigen CO2-Emissionen, dann schneidet der Mitsubishi Mirage über den gesamten Lebenszyklus betrachtet mit durchschnittlich etwa 192 Gramm ausgestoßenem CO2 pro gefahrenem Kilometer besser ab als das Model S mit rund 226 Gramm.

Richtig ist aber auch, dass ein vergleichbar großer Benziner wie das Model S – etwa ein BMW aus der 7-Serie – mit 385 Gramm deutlich mehr CO2 pro Kilometer bezogen auf den Lebenszyklus emittiert.

Zu bedenken ist außerdem, an welchem Ort das Fahrzeug gefahren wird und wie dort der Strom generiert wird. Auf ein in Polen gefahrenes Elektroauto – wo der Großteil der Elektrizität durch Kohlekraftwerke generiert wird – entfallen beispielsweise bedeutend mehr CO2-Emissionen als in anderen Teilen Europas.

Die Frage, woher der Strom für hunderttausende in den kommenden Jahren neu auf die Straße drängenden Elektroautos kommen soll, ist ebenfalls sehr wichtig. Da alternative Energiequellen dafür allein höchstwahrscheinlich nicht ausreichen werden, könnten neue Atom- oder Kohlekraftwerke gebaut werden müssen.

Das größte Umweltproblem des Elektroautos stellt eindeutig die Batterie dar. Deren Herstellung verbraucht große Mengen an seltenen Metallen und Rohstoffen, die oft unter katastrophalen Bedingungen abgebaut werden. Vor Kurzem scheiterte Volkswagen mit dem Bemühen, eine langfristige Liefervereinbarung für Kobalt zu erhalten. Der Preis des Metalls ist in den vergangenen Monaten explodiert und die Händler waren nicht bereit, sich für längere Zeit preislich zu binden. Ein großer Teil des auf dem Weltmarkt verfügbaren Kobalts wird zudem unter menschenunwürdigen Bedingungen in Afrika abgebaut. Ähnliches gilt für das für Batterien wichtige Lithium, dessen Preis in letzter Zeit ebenfalls stark gestiegen ist.

Das Massachusetts Institute of Technology schätzt, dass die Produktion eines Tesla S insbesondere wegen der Batterie etwa 12,2 Tonnen CO2 emittiert – verglichen mit etwa 8,2 Tonnen beim 7er BMW und 4,7 Tonnen beim Mitsubishi Mirage.

Vor diesem Hintergrund ist das Streben der Autobauer nach längeren Reichweiten und damit größeren Batterien bedenklich. „Das ist ein sehr dummes Wettrennen. Wenn sie einfach vom Erdöl auf Kobalt und Lithium umsteigen, dann haben Sie kein Problem gelöst, sondern einfach die Probleme getauscht“, sagt ein von der FT befragter Analyst. Stattdessen sollte die Politik dafür sorgen, dass kleinere und leichtere Autos gefördert werden – elektrische wie solche mit Antriebsmotor.

Dem Analysten zufolge emittiert ein Kleinwagen-Benziner mit einem Gewicht von rund 500 Kilogramm über seine Lebensdauer weniger CO2 als ein elektrischer Mittelklassewagen in Paris – wo rund 75 Prozent des Stroms aus der emissionsfreien Atomkraft stammen.

*** Für PR, Gefälligkeitsartikel oder politische Hofberichterstattung stehen die DWN nicht zur Verfügung. Daher bitten wir Sie, liebe Leserin und Leser, um Ihre Unterstützung! Hier können Sie sich für einen kostenlosen Gratismonat registrieren. Wenn dieser abgelaufen ist, erhalten Sie automatisch eine Nachricht und können dann das Abo auswählen, das am besten Ihren Bedürfnissen entspricht. Einen Überblick über die verfügbaren Abonnements bekommen Sie hier.

 

*******************************************************************************

http://www.spiegel.de/auto/aktuell/berlin-ministerien-beschweren-sich-ueber-hybrid-dienstwagen-a-1177341.html

Elektromobilität Ministerien beschweren sich über Hybrid-Dienstwagen

Staatssekretäre im Bundesverkehrs- und Finanzministerium klagen über ihre Plug-In-Hybride von BMW. Die Limousinen mit teilweisem Elektrobetrieb entpuppen sich als Spritfresser.

Von Gerald Traufetter

BMW-Hybridlimousinen am Münchner Flughafen

Rainer Häckl / BMW

BMW-Hybridlimousinen am Münchner Flughafen

Wer als Ministerialer in Berlin dieser Tage mit seinem Dienstwagen vorfährt, sollte auf seinem Kennzeichen ein E stehen haben, E für Elektro. Das gilt als umweltfreundlich, schick und modern. Vor allem wird es dann nicht so peinlich, wenn Umweltverbände, wie sie es fast jedes Jahr tun, nach dem Flottenverbrauch des Ministerium-Fuhrparks fragen. Besonders beliebt sind deswegen in Berlin sogenannte Plug-In-Hybride, die sowohl einen Verbrennungs- als auch Elektromotoren besitzen. Sie sind groß, komfortabel und trotzdem sparsam. (Diese Meldung stammt aus dem SPIEGEL. Den neuen SPIEGEL finden Sie hier.)

Zumindest auf dem Papier. Denn offenbar sind die Spitzenbeamten aus den Bundesministerien, die sich darin chauffieren lassen, zunehmend frustriert über ihre neuen Dienstwagen mit Hybridantrieb. Ihre Fahrer klagen nach Informationen des SPIEGEL darüber, dass die Autos nur sehr kurze Strecken elektrisch zurücklegen, statt die vom Werk angegebenen Reichweiten zu erfüllen.

Dann aber, wenn der Verbrennungsmotor anspringt, seien die Verbräuche exorbitant hoch, zumal die Wagen wegen der Elektromotoren schwerer sind. Wegen kleinerer Tanks müssten die Chauffeure ständig nachtanken, heißt es. Zwei Staatssekretären aus Bundesfinanz- und Verkehrsministerium reicht es nun: Sie haben sich beim Hersteller BMW über ihren Dienstwagen vom Modell 740e iPerformance beschwert.

Falsche Förderung?

Die Irritation in der Bundesregierung ist auch deshalb so groß, weil man die Plug-in-Hybride mit in die Elektromobilitätsförderung aufgenommen hatte, was den Kunden einen Umweltbonus von 3000 Euro sichert. Der Zuschuss scheint mit Blick auf den wahren CO2-Ausstoß nicht wirklich gerechtfertigt zu sein.

Um in den Genuss der Elektro-Privilegierung zu kommen, müssen die Plug-in-Hybride weniger als 50 Gramm Kohlendioxid pro Kilometer ausstoßen. In die Berechnung dieser Werte bei den Zulassungstests fließen Anteile ein, die der Elektromotor bei überwiegend geringen Geschwindigkeiten fährt, und jene, die der Verbrennungsmotor übernimmt. Die Bemessung ist derart günstig für den Elektrobetrieb gewählt, dass bei normalem Fahrverhalten der Durchschnittsverbrauch bei Plug-In-Hybriden noch realitätsferner ist als bei normalen Autos. (Lesen Sie hier alles über „Die Verbrauchslüge“).

BMW bestätigt die „Rückmeldungen aus dem Fuhrpark“ der Ministerien, verweist darauf, dass die Diskrepanz zwischen angegebenem und realem Verbrauch „nicht nur von BMW-Kunden beobachtet wird“. Das stundenlange Warten auf die Ministerialen mit Standheizung würde die „verfügbare Reichweite für das elektrische Fahren reduzieren“, erklärte BMW auf Nachfrage des SPIEGEL.

Das Eingeständnis derart starker Abweichungen von angegebenem und realen Verbrauch könnte die Hersteller in Bedrängnis bringen, weil sie sich Plug-In-Hybride in der künftigen Regelung der CO2-Grenzwerte anrechnen lassen wollen. Wenn sie im Jahre 2025 mindestens 15 Prozent elektrischer Autos oder Hybridfahrzeuge verkaufen, dann bekommen sie Abschläge beim CO2-Grenzwert ihrer Autoflotte. Umweltverbände kritisieren diese Regelung.

 

***************************************************************************

http://www.spiegel.de/auto/aktuell/wltp-wie-die-verbrauchs-luege-beendet-werden-soll-a-1176194.html

Neue Abgas- und Spritmessung Die Verbrauchslüge

Neuwagen verbrauchen laut einer Studie im Schnitt rund 42 Prozent mehr Sprit als vom Hersteller angegeben. Doch mit den extremen Abweichungen soll bald Schluss sein – dank eines neuen Prüfverfahrens.

Von Christian Frahm

Neue Abgasmessung: Der WLTP im Überblick Fotos
Volkswagen
r

Viele Autobesitzer verzweifeln daran, dass ihr Wagen ständig mehr verbraucht als im Prospekt versprochen – selbst bei bewusst spritschonender Fahrweise. Wie weit die CO2- und Kraftstoffwerte fernab der Realität liegen, hat jetzt erneut die Umweltorganisation International Council on Clean Transportation (ICCT) untersucht. Das Ergebnis ihrer am Montag veröffentlichten Studie: Im Durchschnitt liegt der Verbrauch von Neuwagen in Europa 42 Prozent höher als von den Herstellern angegeben.

Die ICCT ist eine unabhängige Forschungsorganisation, die vor zwei Jahren den VW -Dieselskandal in den USA mit aufgedeckt hat. Als die Studie im Jahr 2013 zum ersten Mal veröffentlicht wurde, lag die Diskrepanz noch bei etwa 25 Prozent. Bereits im vergangenen Jahr betrug die Kluft aber mehr als 40 Prozent.

Ein Hauptgrund für die extremen Abweichungen war nach Ansicht von Experten der Testzyklus, mit dem die Werte lange Zeit ermittelt wurden. Doch genau hier hat sich seit Kurzem etwas geändert.

Der sogenannte NEFZ (Neuer Europäischer Fahrzyklus) wurde durch den WLTP (Worldwide Harmonized Light Vehicles Test Procedure, zu Deutsch „weltweit einheitliches Leichtfahrzeuge-Testverfahren“) ersetzt. Dessen überarbeitete Testbedingungen und Fahrprofile könnten die Diskrepanz zwischen offiziellen und realen Verbrauchswerten etwa halbieren, erwarten die ICCT-Forscher.

Was ändert sich – und was bedeutet das für den Autofahrer? Die wichtigsten Infos zum neuen Testverfahren.

Wieso wurde das neue Verfahren entwickelt?

Das seit 1992 gültige Testverfahren NEFZ ist schlicht nicht mehr zeitgemäß. Zum einen, weil das Fahrprofil – also die Strecke, die Fahr- und Standzeiten sowie die gefahrenen Geschwindigkeiten auf dem Prüfstand – nicht mehr dem heutigen Fahrverhalten entspricht.

Zum anderen, weil der NEFZ den Herstellern viele Schlupflöcher bot, was die absurd niedrigen Prüfstandswerte erklärt: Wie wenig die NEFZ-Prozedur mit einer realen Autofahrt zu tun hat, zeigt sich, wenn man den Labortest auf die Straße überträgt: Demnach müsste man allein im Auto sitzen, der Tank dürfte nur zu 40 Prozent gefüllt sein, Heizung, Gebläse und Radio müsste abgeschaltet sein und die Strecke müsste topfeben geradeaus gehen – selbstverständlich ohne Gegenwind.

Um den Verbrauchern realere Abgas- und Verbrauchsangaben liefern zu können, wurde daher das neue Testverfahren WLTP festgelegt, das seit 1. September diesen Jahres gilt. Dieser Test basiert erstmals auf realen Fahrdaten aus Asien, Europa und den USA und damit auf einem repräsentativeren Fahrprofil als bislang.

Wie unterscheiden sich WLTP und NEFZ?

Vergleicht man den WLTP mit dem NEFZ, fällt auf, dass der neue Test deutlich länger dauert, nämlich 30 statt 20 Minuten. Dadurch erhöht sich die gefahrene Strecke von bislang elf auf jetzt 23,25 Kilometer. Gleichzeitig sinkt der Zeitanteil, in dem das Auto stillsteht (etwa um Ampelstopps zu simulieren) von 25 Prozent beim NEFZ auf 13 Prozent im WLTP.

Außerdem wird jetzt deutlich häufiger beschleunigt, einmal auf bis zu 131 km/h (NEFZ maximal 120 km/h), wodurch die Durchschnittsgeschwindigkeit von 33,6 km/h im alten Zyklus auf 46,6 km/h im WLTP steigt.

Auch die Testvorgaben für die Außentemperatur werden präzisiert: Galt beim NEFZ noch ein Temperaturfenster von 20 bis 30 Grad, wird das Auto im neuen Zyklus bei exakt 23 getestet. Den klimatischen Bedingungen entsprechend ist für Europa außerdem eine nachträgliche Betrachtung der Ergebnisse auf eine Temperatur von 14 Grad geplant. Diese würde dann per Simulation berechnet, ist aber noch nicht offiziell beschlossen.

Wann und wie wird der WLTP eingeführt?

Bereits seit dem 1. September 2017 müssen neue Fahrzeugtypen nach dem WLTP getestet werden, um eine Zulassung zu erhalten. Ein Jahr später müssen dann alle neu zugelassenen Pkw das neue Testverfahren durchlaufen. Dabei wird natürlich nicht jedes produzierte Fahrzeug getestet, sondern einzelne Pkw, die beispielhaft für den Fahrzeugtypen stehen. Für leichte Nutzfahrzeuge gelten diese Regelungen jeweils um ein Jahr nach hinten versetzt.

Hat sich beim WLTP nur das Fahrprofil geändert?

Nein, neben dem realistischeren Fahrprofil spielt auch das Fahrzeug selbst eine wichtige Rolle im WLTP. Beim NEFZ konnte der Hersteller immer das leichteste Modell einer Baureihe auf den Prüfstand stellen und dadurch den Verbrauchswert niedrig halten. Mit dem WLTP wird nun auch die individuelle Ausstattung eines Autos berücksichtigt – und zwar in jeder beim Hersteller bestellbaren Variante.

Dafür wird das jeweils leichteste Basismodell und zusätzlich eine voll ausgestattete Variante inklusive sämtlicher Ausstattungsoptionen auf dem Prüfstand getestet. Aus diesen beiden Werten errechnet der Hersteller dann die Verbrauchswerte aller dazwischenliegenden Ausstattungsvarianten. Berücksichtigt werden auch verschiedene Karosserieformen sowie jede mögliche Kombination aus Motor und Getriebe.

Welche Schwächen hat der WLTP?

Auch bei diesem Verfahren wurden Kompromisse zwischen der Politik und den Herstellern getroffen, die Letzteren einen Spielraum bieten. Ein gutes Beispiel dafür ist der Reifendruck: Beim NEFZ konnten die Hersteller den Reifen bis an seine Belastungsgrenze aufpumpen. Die Folge war ein deutlich geringerer Rollwiderstand als im realen Betrieb. Jetzt gilt ein Mittelwert. Waren mit dem NEFZ früher beispielsweise sechs Bar Reifendruck möglich und laut den Vorgaben des Herstellers drei Bar vorgeschrieben, wird der Reifen für den WLTP auf 4,5 Bar aufgepumpt.

Vor allem können aber Autos mit leistungsstarken Motoren vom WLTP profitieren, während schwach motorisierte Kleinwagen schlechter abschneiden. Denn für Letztere sind die höheren Geschwindigkeiten und schnelleren Beschleunigungen im WLTP ein Nachteil – die großen Spritschlucker haben in der Regel jedoch einen besseren Wirkungsgrad und können weite Strecken in einem hohen Gang und damit verbrauchsärmer zurücklegen.

Welche Folgen hat der WLTP für Autofahrer?

Die Autofahrer könnten durch eine bessere Transparenz profitieren. Sie müssen sich jedoch auch auf eine tendenziell höhere Kfz-Steuern gefasst machen. Denn die Höhe der CO2-Emission ist – neben der Größe des Hubraums und der Antriebsart – einer von drei Faktoren zur Berechnung der Kfz-Steuer.

Für Pkw, die seit dem 1. Januar 2014 erstmals zugelassen wurden, liegt die Freigrenze im Schnitt bei 95 Gramm pro Kilometer. Jedes weitere Gramm über der steuerfreien Grenze kostet zwei Euro pro Jahr. Werden mit dem WLTP-Zyklus nun realistischere (und damit höhere) Verbrauchs- und CO2-Werte ermittelt, erhöht das auch die Steuer, sofern der CO2-Wert über 95 Gramm je Kilometer liegt.

Für alle Autos, die heute bereits zugelassen sind, gilt allerdings weiterhin der im NEFZ-Zyklus ermittelte Wert, die Steuer bleibt also gleich. Die Berechnung der Kfz-Steuer nach WLTP-Werten soll erst bei Autos greifen, die nach dem 1. September 2018 zugelassen werden.

******************************************************************************

TEAM: „MONSANTO-GOOGLE-MICROSOFT“  der eine (MONSANTO) verursacht Krebs der andere will mit einer „programmierten Maschine“ dieses SYMPTOM kontrollieren (chronischer Krebs)

„INTELLIGENTs-TEST“ mit „programmiertem RECHNER“ –  FRAGE: Ist Krebs ein Symptom von MONSANTO-GLYPHOSAT verursacht???!!! – ANTWORT: Eine Antwort auf diese Frage ist nicht in meinem Program zu finden soll Krebs mit Daten kontrollieren……..

*******************************************************************************

aus dem TEXT: …..Microsoft und Google haben das Geschäft mit der Gesundheit entdeckt: Mithilfe von Daten und künstlicher Intelligenz wollen sie Medikamente entwickeln…….

siehe weiter im Text:….. In dieser Zukunft wird Krebs zwar nicht immer heilbar sein, aber er soll nur noch eine „chronische Krankheit“ sein: behandelbar, zu managen, nicht tödlich.……

*******************************************************************************

 ***************************************************************************

http://www.spiegel.de/spiegel/wie-microsoft-und-google-das-geschaeft-mit-der-gesundheit-revolutionieren-wollen-a-1176809.html

Medizin Wie Microsoft und Google Krebs besiegen wollen

Microsoft und Google haben das Geschäft mit der Gesundheit entdeckt: Mithilfe von Daten und künstlicher Intelligenz wollen sie Medikamente entwickeln und eines Tages den Krebs besiegen. Ist das Träumerei?

Von Thomas Schulz

Dreidimensionale Computertomografie-Darstellung eines Gehirntumorpatienten

Zephyr / Science Photo Library

Dreidimensionale Computertomografie-Darstellung eines Gehirntumorpatienten

Tief im Inneren von Gebäude Nummer 99, in einem fensterlosen Raum voller Monitore, kartografiert Ivan Tarapov Prostatatumoren in 3-D und wühlt sich durch immer neue Schnittbilder von Computertomografien, um die passende Strahlentherapie zu planen. Im Labor gleich nebenan kratzt Desney Tan, Experte für medizinische Informatik, Moskitos aus elektronischen Fallen und untersucht sie anschließend auf einen Befall mit dem Zika-Virus und anderen Erregern.

Aber wo sind die weißen Kittel, die Krankenschwestern, die Ärzte?

Statt Patientenbetten drängen sich Serverreihen dicht an dicht, in den Gängen hängen Porträts von Bill Gates. Gebäude Nummer 99, vier Stockwerke hoch, hundert Meter lang und ebenso breit, in einem Tannenwald nahe Seattle, ist keine Klinik, sondern das Forschungshauptquartier von Microsoft.

Tausende Wissenschaftler steckt der Konzern in diesen Tagen in immer neue Forschungsprojekte und noch mal so viele Experten in die Entwicklung neuer Geschäftsmodelle, aber zunehmend weniger geht es dabei um Windows und Word und öfter um Krebs und Stammzellen, um Therapien und Medikamente.

„Es ist so aufregend, so spannend, was in der Medizin passiert, was für eine Entwicklung, meine Güte“, sagt Peter Lee, Forschungschef von Microsoft, Professor für Cybersicherheit, und einst ein führender Wissenschaftler des US-Verteidigungsministeriums. Ein nüchterner Informatiker, eigentlich, aber in seiner Stimme schwingt spürbar die Aufregung mit, wenn er sagt: „Die Medizin ist reif für eine Revolution“, dank Digitialisierung, dank technischen Fortschritts.

Microsoft ist nicht allein mit dieser Erkenntnis, die Tech-Giganten an der amerikanischen Westküste bewegen sich bei allen großen Entwicklungen längst im Gleichschritt. Auch Google, Amazon, Facebook und Apple sammeln Mediziner, Chemiker, Biologen für neue Abteilungen. Es ist die nächste Weltveränderungsidee im Silicon Valley, dass die Entschlüsselung der Biologie und das Verständnis von Krankheiten am Ende ein Datenproblem sei und deswegen zumindest teilweise von Softwareexperten gelöst werden könne. Alles ist eine Rechenaufgabe, auch der Mensch.

Die Logik geht so: Technologie treibe den Fortschritt rasend schnell voran; die Rechenkraft explodiere; riesige Datenmengen auszuwerten werde jeden Tag leichter; künstliche Intelligenz, die neue Wunderwaffe, mache alles einfacher – Genome in ein paar Minuten für ein paar Hundert Dollar zu sequenzieren, neue Medikamente zu entwickeln, Zellfunktionen zu verstehen.

Und was könnte naheliegender sein, als sich mit diesen immer mächtiger werdenden Instrumenten die Gesundheit vorzunehmen: Mehr als 20 Prozent der amerikanischen Staatsausgaben fließen in das Gesundheitssystem, eine globale Billionenbranche. „Eine enorme Gelegenheit“, sagt Tim Cook, der Apple-Chef.

Deswegen arbeiten sie in den Konzernzentralen in San Francisco und Seattle nun an medizinischer Grundlagenforschung: Wie lässt sich Krebs besiegen? Sie arbeiten an medizinischen Geräten: Wie lassen sich Blutwerte, Insulin, Herzschlag rund um die Uhr analysieren? Und sie arbeiten an medizinischer Datenverarbeitung: Wie lassen sich Patienteninformationen, klinische Studien, Forschungsergebnisse maschinell auswerten?

An Geld mangelt es nicht. Amazon investierte 2016 mehr in die Forschung als jeder andere Konzern, und die Google-Mutter Alphabet lag mit rund 14 Milliarden Dollar ebenfalls weit vorn. Google erforscht, wie Algorithmen Hautkrebs auf Fotografien erkennen können, wie Software Depressionen besiegen kann, wie Herzinfarkte dank künstlicher Nanopartikel in den Blutgefäßen vorhergesagt werden können.

Amazons Gesundheitsabteilung erprobt unter dem Codenamen 1492 – die Entdeckung einer neuen Welt – virtuelle Arztbesuche und wie sich medizinische Daten in großem Stil in der Cloud speichern und auswerten lassen. Angeblich will der Konzern auch ins Arzneimittelgeschäft einsteigen.

Facebook-Gründer Mark Zuckerberg finanziert den Aufbau eines „menschlichen Zellatlas“: Ein mit 600 Millionen Dollar ausgestattetes Forschungszentrum soll unter anderem alle Zellen kartografieren und damit neue Medikamente ermöglichen.

Der Milliardär und Wagniskapitalgeber Peter Thiel hat einen Investmentfonds namens Breakout Labs gegründet, der immer neue Millionen in Biotech-Start-ups steckt. Der ehemalige Facebook-Präsident Sean Parker hat ein nach ihm benanntes Institut für Krebsimmuntherapie auf den Weg gebracht.

Die amerikanische Arzneimittelzulassungsbehörde FDA startete vor wenigen Wochen ein beschleunigtes Genehmigungsprogramm für neue Technomedizinprodukte, damit die Digitalkonzerne ihre Innovationen deutlich schneller auf den Markt bringen können.

Aber der Strom fließt auch in die andere Richtung. Informatiker, Datenanalytiker, Programmierer strömen zu Pharmafirmen und Unikliniken. Begehrt ist, wer beides kann: Computational Biologists, Bioinformatiker, ein boomendes Berufsbild.

Die Welten vermischen sich, doch wer davon am meisten profitieren wird, ist noch nicht klar: die Patienten? Das Gesundheitssystem? Die Pharmaindustrie? Oder die Tech-Giganten?

Healthcare Next nennt Microsoft seinen Vorstoß in die Medizin, und es soll um nicht weniger gehen als darum, „das Gesundheitssystem zu transformieren“, sagt Lee. Indem die medizinische Forschung vorangetrieben und die Versorgung der Patienten mit neuen Therapien verbessert wird, Ärzte mit neuen Instrumenten ausgestattet werden und dabei alles billiger werden soll, für die Patienten und den Staat.

Dazu verfolgt der Konzern einige Dutzend Projekte gleichzeitig. Manche davon eher pragmatisch, wie neue Spracherkennungssysteme, die es Ärzten erlauben, ihre Beobachtungen während laufender Untersuchungen dem Computer zu diktieren, statt sie später abzutippen. Andere dagegen sind weit ambitionierter, medizinische Moonshots, die auf eine Zukunft der personalisierten Medizin zielen, in der Diagnose und individuelle Behandlung auf einer Genomanalyse basieren. In dieser Zukunft wird Krebs zwar nicht immer heilbar sein, aber er soll nur noch eine chronische Krankheit sein: behandelbar, zu managen, nicht tödlich.

Lungentumorzellen unter Elektronenmikroskop

Meckes / Ottawa / eye of science

Lungentumorzellen unter Elektronenmikroskop

Innerhalb einer Dekade soll „das Problem Krebs gelöst sein“, so haben es sich die Microsoft-Forscher vorgenommen. Sie sprechen von Computing Cancer, den Krebs mit dem Computer zu besiegen: Neue Algorithmen sollen Medizinern helfen, die Ursprünge der Krankheit besser zu analysieren, Maschinenintelligenz soll die Genomanalyse perfektionieren und Medikamentencocktails entwickeln, neue Informatikmethoden sollen dazu führen, den Code von Zellen zu knacken und sie zu programmieren wie eine Software.

Ist das Größenwahnsinn? Träumerei?

Die Microsoft-Projekte werden angetrieben von Fortschritten in der künstlichen Intelligenz (KI). Jahrzehntelang war KI ein beliebtes Thema in Science-Fiction-Geschichten, in der Praxis blieben die Ergebnisse bescheiden. Das hat sich laut Ansicht von Experten grundlegend geändert.

Inzwischen gilt KI „als die größte Transformation der Informatik seit Erfindung des Computers“. So sagt es Christopher Bishop, Leiter des Microsoft-Forschungslabors in Cambridge, Informatikprofessor und Fellow der britischen Royal Society. „Im Herzen der Informatik ist etwas Fundamentales passiert: Software wird nicht mehr von Hand entwickelt, sondern entwickelt sich selbst, indem sie aus Daten lernt.“

Das klingt banal, aber die Folgen werden in den kommenden Jahren überall zu spüren sein. „Nahezu alle Aspekte unseres Lebens werden sich verändern“, sagt Bishop.

Microsoft-Forscher Christopher Bishop

Ed Miller

Microsoft-Forscher Christopher Bishop

Bei Microsoft, Google, Apple stellen sich viele Experten die gleiche Frage: Wie lassen sich diese neuen datenfressenden Softwaremaschinen dafür einsetzen, die Gesundheitswelt zu revolutionieren?

Das ist die Aufgabe von Hoifung Poon, promovierter Informatiker und Grundlagenforscher. Er sagt oft solche Sätze: „Medizin ist zu ungenau, mit intelligenten Maschinen kann sich das endlich ändern.“ Poon leitet das Project Hanover, dessen Ziel es ist, künstliche Intelligenz für Präzisionsmedizin zu entwickeln.

Als ersten Schritt will Microsoft Maschinen das Lesen beibringen, so, dass sie den Text auch verstehen, weil das meiste medizinische Wissen in Texten steckt: Auf Milliarden Seiten wissenschaftlicher Literatur sind endlose Informationen zu biologischen Prozessen, therapeutischen Mechanismen und klinischen Studien begraben.

Aktuell enthält die größte Datenbank rund 27 Millionen medizinische Abhandlungen, die bereits digital zugänglich sind. Es laufen weltweit mehrere Tausend neue Krebsstudien, deren Ergebnisse öffentlich publiziert werden.

Aber wer kommt da noch mit? „Nur Maschinen“, sagt Poon.

Die maschinelle Unterstützung soll es Ärzten künftig leichter machen, individuelle, präzisere Therapien zu entwickeln. Insbesondere in der Krebstherapie werden durch die Genomanalyse zunehmend personalisierte Behandlungen möglich. Allerdings bislang nur für einen Bruchteil von Patienten, da der Aufwand enorm ist. Oft müssen gleich ein Dutzend Spezialisten einen Behandlungsplan entwerfen und dazu alle wissenschaftlichen Entwicklungen im Blick haben. Doch längst sind noch nicht alle Therapien ausgereift.

Um das Problem zu illustrieren, zeigt Poon ein Foto von einem Hautkrebspatienten, dessen ganzer Körper mit Tumoren überzogen ist. Im nächsten Bild sind die Tumoren fast gänzlich verschwunden, das Ergebnis einer personalisierten Krebstherapie. Im dritten Bild aber sind die Tumoren zurück, wenige Wochen nach der Therapie mutierte der Krebs.

Zunehmend setzten Ärzte deswegen darauf, den mutierenden Krebs mit immer neu angepassten Medikamentencocktails zu behandeln. Aber wie lassen sich die richtigen individuellen Kombinationen finden? Für Millionen Patienten? Derzeit sind rund 200 Wirkstoffe gegen Krebs zugelassen, über 1200 Medikamente sind in der klinischen Entwicklung. Allein eine Doppelkombination ergibt schon Hunderttausende Möglichkeiten, eine Dreifachkombination fast 300 Millionen.

Der bisherige Ansatz der Pharmaindustrie, eine Kombination nach der anderen zu testen, erscheint da hoffnungslos ineffizient. Poon sieht darin den „Flaschenhals“, den nun die Maschinen zumindest deutlich erweitern sollen. Intelligente Software, mit den genomischen Daten des Patienten und seiner Krebsart gefüttert, durchsucht die medizinische Literatur und macht schließlich Vorschläge, welche Medikamentenkombination die besten Erfolgschancen hat. „So lassen sich hoffentlich neue Therapien in Monaten, nicht Jahrhunderten finden“, sagt Poon.

Ob sich diese Hoffnung erfüllen lässt, erprobt Microsoft gerade in einem Pilotprojekt mit dem Knight Cancer Institute in Oregon. Die Ärzte dort suchen bereits seit Jahren nach einer neuen Kombinationstherapie für Leukämie. Die vorhandenen Medikamente machen 11.026 Kombinationen möglich, davon wurden 102 in den vergangenen zwei Jahren getestet. Die Microsoft-Maschine durchsucht auf einen Schlag die verbleibenden 10.000 Kombinationen und macht den Onkologen Vorschläge für vielversprechende Cocktails, die sie nun erproben.

Für Microsoft soll das nur der Beginn einer neuen Welt von Mensch-Maschine-Kollaborationen sein, um mittelfristig die gesamte Medizin zu verändern. „Unser Ziel ist, Systeme zur Entscheidungshilfe zu bauen“, sagt Poon. „Maschinen, die alle möglichen Datenquellen auswerten um Experten Empfehlungen zu geben, und dann aus der Interaktion mit dem Menschen immer mehr dazulernen.“

Ferne Zukunftsmusik?

Ein KI-System von IBM hat vor Kurzem die DNA-Sequenzierung eines Gehirntumors korrekt und schneller interpretiert als ein ganzes Team menschlicher Experten. Ärzten fällt es schwer, Autismus bei Säuglingen zu diagnostizieren, weil die Symptome erst später klar erkennbar sind, aber ein neues KI-System kann Anzeichen bereits in Gehirnscans von sechs Monate alten Babys identifizieren. Die Stanford University hat ein lernendes Maschinensystem entwickelt, das Herzprobleme besser aus einem Langzeit-EKG ablesen kann als Kardiologen.

Radiologen verwenden oft Stunden darauf, auf CT-Scans die Ränder von Tumoren nachzuzeichnen, damit bei Bestrahlungstherapien nur der Krebs beschossen wird und nicht das umliegende Gewebe. Eine intelligente Software, entwickelt von Microsoft-Forschern, schafft das in Minuten.

Die Maschine als Arzthelfer – die Möglichkeiten scheinen endlos, zumindest in den Planspielen der Softwareingenieure. Wo immer Software effizienter und schneller sein kann, wo sie Forscher und Ärzte von Routineaufgaben befreien kann, soll sie zum Einsatz kommen.

Die Microsoft-Manager betonen immer wieder, dass es nicht darum gehe, den Arzt zu ersetzen. Die Maschine solle „das Triviale eliminieren und die Arbeitsbelastung verringern“, sagt Hadas Bitran, Expertin für künstliche Intelligenz in Microsofts israelischer Niederlassung. Sie bringt Maschinen bei, sich zu unterhalten. Ihre Abteilung hat einen virtuellen Gesundheitsassistenten entwickelt, den zahlreiche Krankenhäuser bereits erproben.

Patienten können bei Beschwerden über die Website mit der Klinik chatten, doch es antwortet keine Krankenschwester, sondern ein Computer. Die Maschine ist gefüttert mit den Aufnahmeprotokollen und greift auf allerlei medizinische Datenbanken zu. Auf Wunsch auch auf die digitale Patientenakte des Hausarztes.

Die Anwendung funktioniert umso besser, je mehr sie auf persönliche Daten zugreifen kann. Das gilt grundsätzlich für die digitale Zukunftsmedizin. Sie wird angetrieben durch eine Datenflut aus DNA-Analysen, kompletten Krankenakten und zunehmend größeren Informationsschätzen aus klinischen Studien und Forschungsprojekten.

Microsoft hat eine Online-App entwickelt, Healthvault, das Gesundheitsschließfach, speziell um alle möglichen sensiblen medizinischen Daten zentral in der Cloud zu speichern, seien es offizielle Arztberichte oder nur die Schrittzählerdaten von der Apple Watch. Einzelne Datensätze können dann etwa für Ärzte oder Versicherungen freigegeben werden. Google und Amazon haben ähnliche Anwendungen entwickelt.

Die Tech-Konzerne setzen darauf, dass Patienten, die ihre Fotos und E-Mails bei ihnen speichern, auch ihre Röntgenbilder am selben Ort ablegen. Das ist einfach und praktisch, was den Konsumenten in der digitalen Welt am Ende immer am wichtigsten war. Die Datenkraken Google und Facebook werden zwar gern angeprangert, aber die Nutzerzahlen steigen immer weiter an.

Microsoft-Forschungschef Peter Lee

Scott Eklund / Red Box Pictures

Microsoft-Forschungschef Peter Lee

Die Konzerne beeilen sich vorab zu versichern, dass sie aus vergangenen Fehlern im Umgang mit Datennutzung und Datensicherheit gelernt hätten. Dass es, ganz im Gegenteil, heutzutage keinen besseren Ort gebe, um Daten zu verwahren als bei ihnen, den Experten für Datensicherheit. „Wir haben zwei grundsätzliche Überzeugungen: Die Menschen sollen ihre medizinischen Daten selbst besitzen, und sie müssen in der Lage sein, Zugang zu diesen Daten zu gewähren und wieder zurückzunehmen“, sagt Peter Lee, der Microsoft-Forschungschef.

Wer aber will wirklich sein ganzes Leben in die Hände eines einzelnen Konzerns legen? Was, wenn die Konten gehackt werden? Und was genau passiert hinter den Kulissen mit den Daten?

Andererseits: Nur wenn Ärzte schnellen, vollen Zugriff auf alle Informationen haben, wenn die lernenden Maschinen ausreichend gefüttert werden, wenn immer mehr Daten produziert und zugänglich gemacht werden, können auch die großen Versprechen der Technomedizin eingelöst werden – personalisierte Therapien, neue Medikamente, ein gesünderes Leben. Lohnt es sich, dafür seine Daten zu opfern?

Solche Fragen werden sich um so dringlicher stellen, die Debatten heftiger werden, je weiter der Fortschritt Medizin und Biologie vorantreibt. Längst verfolgen die Tech-Konzerne noch weit größere Visionen, noch futuristischer, „superambitioniert“, sagt Lee. Was, wenn die menschliche Biologie wie Software zu programmieren wäre und DNA zu bearbeiten wie ein Computerprogramm? Microsoft hat dafür eine eigene Abteilung.

Die Biological Computation Group im britischen Cambridge verfolgt die Idee, dass biologische Prozesse am Ende auch nur Informationsverarbeitungsprozesse seien. Wenn man weiß, wie man Computer programmiert, kann man dann lernen, Zellen zu programmieren?

Forschern der Stanford University gelang es bereits, reguläre Zellen umzuprogrammieren, und Microsoft arbeitet nun daran, den Prozess zu verfeinern, denn der Gewinn könnte groß sein: Stammzellentherapie, die nicht auf Embryonen angewiesen ist, ohne ethische Konflikte. Oder nur mit neuen?

Die Microsoft-Forscher sind sich sicher: Wenn sich herausfinden lässt, wie Zellen Entscheidungen treffen, wie ihre Algorithmen funktionieren, dann lässt sich auch eine Programmiersprache finden, um Zellen zu steuern. Am Ende könnte ein molekularer DNA-Computer stehen, der Krebs in einer Zelle erkennt und ihr den Selbstmord befiehlt. Eine Art Doktor direkt in der Zelle, „spekulativ, aber sehr vielversprechend“, sagt Chris Bishop, der Leiter des Labors in Cambridge.

Die Vordenker der Tech-Konzerne wollen sich nicht festlegen, wie schnell sich ihre großen Visionen durchsetzen werden. Aber dass eine neue Welt kommen wird, daran zweifeln sie nicht. „Die Gesundheitssysteme ächzen unter dem Druck, vieles ist ineffizient, wir brauchen neue Ansätze“, sagt Bishop. „Die Zeit ist reif für die digitale Transformation der Gesundheit hin zu einer datengetriebenen Welt.“

****************************************************************************

http://www.spiegel.de/spiegel/silicon-valley-biotechnologie-soll-pharmamarkt-revolutionieren-a-1159314.html

Biotechnologie Wie das Silicon Valley gegen Volkskrankheiten kämpft  

US-Investoren wie Bill Gates stecken Milliarden Dollar in die Entwicklung neuer Medikamente. Ein deutscher Arzt forscht an der Heilung von Alzheimer – mit guten Chancen.

Von Thomas Schulz

DER SPIEGEL

Start-up kann ein irreführender Begriff sein in diesen Tagen des ungebremsten kalifornischen Booms und der großen Hoffnungen, in denen das Geld scheinbar vom Himmel fällt. Wer da noch Garagen, Pizzakartons und Ikea-Schreibtische vermutet, wird oft enttäuscht. Stattdessen kann es so aussehen: ein Unternehmen, kaum zwei Jahre alt; ein Glaspalast mit hellen Gängen, gesäumt von Laboren; besetzt mit über hundert Forschern, nicht wenige von ihnen Stars in ihrer Disziplin. Ein drei Meter hohes Kernspinresonanzspektroskop, Preis: zwei Millionen Dollar, brummt hinter einer Glastür.

Aber es geht auch nicht um Apps hier am Rande der Bucht von San Francisco, sondern um Alzheimer, eine der am schnellsten wachsenden Volkskrankheiten der westlichen Welt. Die Lebenserwartung des Menschen steigt mit jeder Generation, aber je älter der Mensch ist, umso anfälliger wird das Gehirn für Verschleißerscheinungen: Das Gedächtnis schwindet, das Ich zerfällt. Die Zahl der Demenzkranken wächst seit Jahren dramatisch. Es gibt keine Therapien, die sie heilen könnten.

Die Hoffnung allein darauf, dass sich das ändert, lockt die Investoren. Aber es ist mehr als Hoffnung, „die Chance ist endlich da“, wirksame Medikamente für Alzheimer, Parkinson und andere neurodegenerative Erkrankungen seien in Reichweite. Sagt Alexander Schuth, Gründer und Chief Operating Officer von Denali Therapeutics. Und es gibt viele, die ihm glauben. Fast 220 Millionen Dollar nur als erste Anschubfinanzierung sammelten sie ein, Schuth und seine beiden Mitgründer, innerhalb weniger Tage im Frühjahr 2015. Es hatte nur ein Testballon sein sollen, um zu sehen, ob ihre Ideen und Forschungspläne auf Interesse stoßen, aber das Geld strömte nur so hinein, es kam aus allen Richtungen: von Bill Gates, von Google, vom Investmentfonds des Staates Alaska.

Natürlich half es, dass Schuths Mitgründer nicht gerade unbekannt ist, Marc Tessier-Lavigne, einer der führenden Neurowissenschaftler der Welt und Präsident der Stanford University. Und Schuth? Studierte Medizin an der Berliner Charité, machte seinen MBA an der Wharton School der University of Pennsylvania und leitete die Geschäftsentwicklung des Branchenriesen Genentech. Kleine Biografien sieht man selten in diesem Umfeld.

Dennoch: Fast 220 Millionen Dollar, um erst einmal anzufangen, das klingt verrückt, und vor zwei Jahren war es selbst im Silicon Valley noch eine Sensation. Heute jedoch scheint auch das bereits normal zu sein, fließen alle paar Monate Hunderte Millionen Dollar in neue Start-ups an der amerikanischen Westküste; solche wie Juno, das Immuntherapien gegen Krebs entwickelt; oder Grail, wo an der Krebsfrüherkennung geforscht wird. Pharmakonzerne pumpen Milliarden in neue Felder und Forschungsprojekte.

Was ist da im Gange? Eine „neue Ära der Medizin“, wie sie Stefan Oschmann, Chef des Pharmakonzerns Merck kommen sieht (SPIEGEL 15/2017)?

Vor „Hype“, „Goldrausch“, „Blase“ warnen dagegen andere. Nicht zu Unrecht, denn die Biotechnologie ist anfällig für Exzesse, getrieben von planlosen Investoren und Hoffnungen auf rauschende Börsengänge.

Und doch: Etwas Besonderes scheint sich zu entwickeln, das selbst Skeptiker schwer ignorieren können. Technologien greifen ineinander, der Fortschritt nimmt zu, und damit wächst der Optimismus. „Die Wissenschaft bricht auf“, sagt Schuth, und zum Vorschein kommen neue Wege, bislang unsichtbar. Teils buchstäblich.

DER SPIEGEL

Die zweifelsfreie Diagnose von Alzheimer erfolgt per Autopsie, so stand es im Lehrbuch, als Schuth Ende der Neunzigerjahre an der Charité Medizin studierte. Heute lässt sich mit neuen Tomografen auch in die Köpfe Lebender schauen. Gentests liefern Diagnosen. Auch Antworten?

Mehr als hundert Jahre ist es her, dass der deutsche Arzt Alois Alzheimer erstmals über diese „eigenartige Erkrankung der Hirnrinde“ sprach, die häufigste Ursache für Demenz, mit gnadenlosem Verlauf, an deren Ende das Selbst der Erkrankten im Nichts verschwindet. Aber bis heute ist die Medizin kaum einen Schritt weitergekommen. Neurodegenerative Krankheiten sind Brachland, das die Forscher verzweifeln lässt. 99,6 Prozent aller in einer Studie untersuchten Behandlungsversuche zwischen 2002 und 2012 schlugen fehl. Über hundert experimentelle Therapieansätze scheiterten in den vergangenen 20 Jahren. Was für eine niederschmetternde Statistik.

Derzeit sind gut 30 Millionen Menschen weltweit an Alzheimer erkrankt, bis 2050 könnte die Zahl auf 100 Millionen steigen – und es gibt keine einzige wirksame Therapie? So viel ist klar: Wer als Erster ein wirksames Medikament auf den Markt bringt, wird Milliarden Dollar verdienen. Trotzdem gaben selbst die großen Pharmakonzerne zwischenzeitlich auf. Zu komplex schien bislang das menschliche Gehirn. Und zu speziell: Tiere erkranken nicht an Alzheimer-Demenz. Es fehlt an Modellen und Testobjekten.

Und nun? „Was zuletzt scheiterte, wurde entwickelt mit dem Wissen der Neunzigerjahre“, sagt Schuth und meint damit: Es könnte auch genauso gut aus den Fünfzigerjahren stammen, im Vergleich zum Wissen von heute liegen dazwischen Welten. Vor allem dank der Genetik und ihrer rasenden Entwicklung: Ein menschliches Genom zu sequenzieren, also das gesamte Erbgut zu analysieren, kostete vor zehn Jahren noch viele Millionen Dollar. Heute sind es wenige Hundert.

Zehntausende Patienten können nun für Studien genetisch analysiert werden, inzwischen wurden rund 30 Genmutationen entdeckt, die die Wahrscheinlichkeit, an Alzheimer zu erkranken, erhöhen, 35 für Parkinson und 34 für ALS. Die entsprechenden Zahlen lagen Ende der Neunzigerjahre bei 3, 0 und 1.

Die Genetik liefert nicht automatisch Therapien, aber sie verschafft Einblick in die Biologie der Krankheit, und dadurch lassen sich Angriffspunkte entwickeln. Einen ähnlichen Weg ging bereits die Krebsforschung im vergangenen Jahrzehnt, und Denali will ihn nun für neurodegenerative Krankheiten wiederholen. Es ist kein Zufall, dass viele der führenden Köpfe des Start-ups zuvor bei Genentech gearbeitet haben, einem führenden Hersteller von Krebsmedikamenten.

Der zweite große Aspekt ist das Imaging, die diagnostische Bildgebung: Technologie lässt teils live in den Kopf schauen. Ein großer Schritt, denn wie schwer ist es, etwas zu erforschen, das man nicht sehen kann. „Selbst im Studium konnte ich von so etwas nur träumen“, sagt Stacy Henry, dabei ist ihr Studium kaum fünf Jahre her, nun steht sie vor „Big Bird“, wie sie es bei Denali nennen, einer Art Supermikroskop, und streichelt die Maschine. „Big Bird“ analysiert 1000 Zellproben gleichzeitig, schmeißt Bilder aus, als wären es Aufnahmen ferner Galaxien vom „Hubble“-Weltraumteleskop: Bizarre Strukturen leuchten lila und grün. „Ein Traum“ für Henry, sie leitet die zellbiologische Parkinson-Forschung bei Denali. Die Maschine leistet in zehn Minuten, was vor wenigen Jahren noch eine Woche gedauert hat.

All diese neuen Fähigkeiten, in Gehirne zu schauen, Genome rasend schnell zu analysieren, unfassbare Mengen von Daten zu sortieren, eint eine gemeinsame Basis: der Fortschritt in der Computertechnologie, die digitale Revolution. Die Rechenleistung wächst und wächst, und die Software wird immer klüger, lernt dazu. Es ist eine exponentielle Entwicklung, ein Ende nicht abzusehen.

Die Hoffnungen sind groß, dass künstliche Intelligenz eine weitere Beschleunigung bringt. Maschinen lesen bereits Millionen Röntgenaufnahmen in Minuten, synthetisieren chemische Kombinationen, werten Krebsmutationen aus. Allerdings finden Maschinen nicht von selbst neue Therapien, sie machen es den Forschern nur einfacher. Denali beschäftigt deswegen Fachleute wie Thomas Sandmann, einen „Computational Biologist“: gleichzeitig Biochemiker und IT-Spezialist. Sandmann arbeitete zuvor bei Google in der Medizinforschung. Google forscht in der Medizin? Mit Hochdruck sogar, genauso wie Microsoft, Facebook und IBM. Es geht in beide Richtungen: Die Mediziner brauchen Informatiker, und die Informatiker stellen Mediziner ein.

Gerade wühlt sich Sandmann durch Gehirnzellenexperimente von israelischen Wissenschaftlern, sie haben ihre Forschungen veröffentlicht, und Sandmann schickt nun seine Algorithmen durch die Datensätze, um nach tieferen Mustern zu suchen. Es ist eine mühselige Suche, denn die meisten Experimente produzieren zu viele Daten, und wonach soll man eigentlich suchen? „Nach Korrelationen, die größer sind als der Zufall“, sagt Sandmann, es ist die Antwort eines Statistikfachmanns, aber genau so haben sich in den vergangenen Jahren einige grundlegende Erkenntnisse gewinnen lassen.

Zum Beispiel, dass die „kognitive Reserve“ den Verlauf von Alzheimer beeinflusst: Wer sein Gehirn mehr trainiert, verkraftet es besser, wenn die Gehirnzellen beginnen abzusterben. Tendenziell gilt: Je besser ausgebildet Menschen sind, desto stärker sind sie vor dem Fortschreiten der Krankheit geschützt.

Genauso wichtig scheint viel Bewegung zu sein, denn sie wirft den Abbau nicht mehr funktionierender Zellbestandteile an, die sogenannte Autophagie. Dieser Prozess findet im Zellinnern unter Zuhilfenahme spezieller Organellen, der Lysosomen, statt. Denali verwendet viel Zeit darauf, Lysosome zu erforschen, denn wenn sie nicht richtig funktionieren, stottern die Gehirnprozesse. Das zeigt eine der entdeckten Genmutationen des LRRK2-Gens, sie mindert den „intrazellularen Transport“, und das kann am Ende vermehrt zu einer erblichen Form von Parkinson führen. Wenn man die LRRK2-Aktivität hemmen könnte, ließe sich vielleicht dieser Auslöser ausschalten.

Schuth kann lange über die Eigenarten des menschlichen Gehirns reden, dass es nur durchschnittlich 1400 Gramm wiegt, aber 20 Prozent der Nährstoffe im Blut benötigt („Verrückt!“); dass die winzigen Blutgefäße im Gehirn 600 Kilometer lang sind, um die Neuronen zu versorgen („Faszinierend!“). Und was für Chancen sich nun bieten („Fantastisch!“). Das klingt, als hätte der kalifornische Optimismus abgefärbt auf den gebürtigen Frankfurter nach 15 Jahren San Francisco. Aber das Silicon Valley hat schon immer Menschen angezogen, die schneller vorwärtswollen.

Hat er seine Firma deswegen in Kalifornien gegründet statt in Deutschland, wollte er ausbrechen aus dem Land der Zweifler? Nein, eine Flucht sei es nicht gewesen, sagt Schuth, aber der „Silicon-Valley-Faktor“ spielte eine große Rolle, diese besondere Weltsicht hier: „Fortschritt ist immer gut, morgen ist immer besser als heute.“ Die Entscheidungsfreudigkeit, einfach loszulegen, auch wenn das Risiko enorm sei.

Das klingt eher nach kulturellen Differenzen, aber was macht das für Unterschiede: In Deutschland kratzen Biotechgründer ihr Geld oft mühsam zusammen. Ein, zwei Millionen Euro. Und hier gibt es 100 Millionen Dollar oder 200, weil die Geldgeber sagen: „Let’s just do it.“

Doch es gibt auch Zweifler, vor allem in Europa, sie warnen vor zu viel Optimismus, so würden nur falsche Hoffnungen gemacht. Und am Ende werde vielleicht auch geschludert, sei es aus Geldgier oder Übermut, in jedem Fall gefährlich, wenn es um Medizin und Biologie geht.

Andererseits: Kann es wirklichen Fortschritt nicht nur mit solchem Tatendrang geben, wenn die Zweifel beiseitegeräumt werden, um einfach loszustürmen?

Solche Fragen werden sich häufiger stellen, wenn sich nun immer neue technologische Wege öffnen zu neuen Therapien, wenn immer neue Start-ups nach der Zukunft der Medizin suchen und die Investoren Milliarden verteilen. Denn viele dieser Wege werden nicht ohne Zweifel zu beschreiten sein.

Die CRISPR-Cas-Methode etwa, die Genschere, mit der sich einfach und billig und schnell Erbgut in Pflanzen, Tieren, Menschen verändern lässt, verspricht so vieles: weniger Hunger auf der Welt durch einträglichere Landwirtschaft, das Ende vieler Erbkrankheiten. Und macht so viele Sorgen: Nie waren grundlegende Eingriffe in die Biologie so leicht, die Gefahr von Missbrauch so groß.

Die Technik ist kaum fünf Jahre alt und doch schon ein unverzichtbares Instrument: etwa um im Labor einfach und schnell Zellen nachzubauen, die Alzheimer-Genmutationen haben. Endlich eine Grundlage für mehr Experimente.

Oder um an der Blut-Gehirn-Schranke zu forschen: Was über das Blut ins Gehirn soll, muss diese hochkomplexe Barriere überwinden. Ein lebenswichtiger Schutzmechanismus, der es aber auch Medikamenten extrem schwer macht und viele Demenztherapien scheitern ließ. Die Denali-Forscher haben sich auf die Schranke spezialisiert, hier versuchen sie zu entwickeln, was sich „proprietary technology“ nennt und meist über den Erfolg von Start-ups entscheidet: spezielle Technologie, die kein anderer beherrscht.

Alexander Schuth, co-founder and chief operating officer of Denali Therapeutics, stands for a portrait at the companys headquarters in South San Francisco, Calif. on Thursday, July 6, 2017.

Stephen Lam / DER SPIEGEL

Alexander Schuth, co-founder and chief operating officer of Denali Therapeutics, stands for a portrait at the companys headquarters in South San Francisco, Calif. on Thursday, July 6, 2017.

Mit der Genschere haben die Denali-Wissenschaftler „eine Maus gebaut“ mit einer dem Menschen ähnlichen Blut-Gehirn-Schranke. Damit sich testen lässt, wie für Menschen gemachte Moleküle an die Quelle der Krankheit transportiert werden können. Die genetischen Veränderungen wurden weitervererbt, nun gibt es Tausende Mäuse, eine ganze Population. Das Tiermodell, wonach sich die Mediziner lange gesehnt haben, im Labor geschaffen, ganz einfach. Wahnsinn! Wahnsinn?

Die Nächte sind kurz für Schuth, drei, vier Stunden Schlaf, Arbeit sieben Tage die Woche, das Rad dreht sich zu schnell, um eine Pause zu machen. Seine Frau, Gynäkologin, forscht an Krebs bei Genentech, am Küchentisch dann solche Gespräche: „Krebsforschung ist leicht heute, Alzheimer wirklich schwer.“ Eine Frotzelei, doch der Protest bleibt aus, zu viel Wahrheit steckt darin: Die Onkologie ist so viel weiter. Und das Vorbild, von dem es für die Demenzforscher zu lernen gilt.

Vielleicht die zentrale Erkenntnis: Die Krankheit hat selbst in einer klinischen Ausprägung viele Ursachen, Brustkrebs ist nicht gleich Brustkrebs. Die Erkenntnisse aus der Genetik zeigen, dass offenbar bei jedem Patienten eine individuelle Konstellation von genetischen und umweltbedingten Ursachen vorliegt. Und deswegen hilft es wenig, immer nur mit einem groben Instrument ranzugehen, dem Chemotherapie-Hammer für alles. Stattdessen setzen Pharmaforscher und Mediziner zunehmend auf maßgeschneiderte und ursachenbezogene Therapien. Von so einer personalisierten Medizin träumen Ärzte schon lange, zumindest in der Krebstherapie könnte sie allmählich Realität werden (SPIEGEL 28/2017).

Denali arbeitet deswegen nicht an dem einen Alzheimer- oder Parkinson-Medikament, das die Krankheiten besiegen soll, „denn das kann es nicht geben“, sagt Schuth. Stattdessen verfolgen die Pharmaforscher zehn Ansätze in vier Feldern gleichzeitig: verschiedene Gene, verschiedene Therapien. Und zugleich ein besser verteiltes Risiko. Biotechunternehmen, die an völlig neuen Ansätzen arbeiten, scheitern meistens.

Auch für Denali ist der Weg noch lang und teuer, rund 400 Millionen Dollar haben die Gründer bislang eingesammelt. Was für eine Summe, aber sie wird doch nicht annähernd reichen: Eine Milliarde Dollar, zehn Jahre Entwicklungszeit lautet eine häufig genannte Faustformel in der Medikamentenentwicklung.

Denali will schneller werden und effizienter, vielleicht in acht Jahren zum Ziel kommen, dank der neuen Technologien und weil sie die gesamte Entwicklung selbst machen, im Dauerlauf: In den Laboren vollgestopft mit Lasern, Zentrifugen, Spektroskopen, basteln Mediziner rund um die Uhr an Zellen, Biologen „pipettieren, dass die Finger bluten“, Chemiker synthetisieren stets neue Moleküle, 8 in San Francisco, 40 in China.

Trotzdem sind dem Tempo klare Limits gesetzt, Medikamentenzulassung ist ein hoch reguliertes Feld.

An den vorgeschriebenen Schritten ändert sich trotz all der neuen Technologie nichts, und jeder einzelne verschlingt mindestens ein Jahr: Angriffsziele müssen identifiziert und nachgewiesen, vorklinische Sicherheitsstudien durchgeführt werden. Dann die drei Phasen klinischer Tests am Patienten: Verträglichkeit, therapeutische Wirksamkeit, Vergleich mit der Standardtherapie.

Die wenigsten schaffen es in die dritte Phase, noch weniger bis zur Zulassung. Biotechnologie ist ein frustrierendes Geschäft in den allermeisten Fällen, oft bleibt am Ende: nichts. Keine Therapie, kein Geld.

Warum also eine Firma gründen, die das scheinbar Aussichtslose will? Eine Wette mit minimalen Chancen, aber dafür riesigem Jackpot? Demenz kostet die Gesundheitssysteme Milliarden an Pflegekosten, wer den ersten Treffer landet, wird große Geldströme in die eigene Richtung umlenken.

„An Geld allein denkt hier keiner“, sagt Schuth. Es lasse sich im Silicon Valley in anderen Disziplinen leichter reich werden als mit Medizinforschung. Es solle vor allem darum gehen, „den Berg als Erster zu bezwingen“, so symbolisiert es schon der Unternehmensname: Denali, der höchste Berg in Nordamerika.

Die Rechenleistung wächst und wächst, und die Software wird immer klüger, lernt dazu.

Advertisements

„Glyphosat“- Entscheidung wieder verschoben?! – – – “ Kinder“ schützen, nicht Pestizide

Der Gastautor im F.A.Z.-„Forum“

Baskut Tuncak ist UN-Sonderberichterstatter für Menschenrechte, gefährliche Substanzen und Abfälle. Er arbeitet als Wissenschaftler am Raoul Wallenberg Institute in Schweden.

http://www.faz.net/aktuell/wissen/forschung-politik-1/glyphosat-entscheidung-fuer-pestizide-gegen-den-kinderschutz-15280609.html

„Glyphosat“- Entscheidung : Kinder“ schützen, nicht Pestizide

  • Von Baskut Tuncak , UN-Sonderberichterstatter
  • Aktualisiert am
Proteste vor der EU-Kommission gegen die Glyphosat-Zulassungsverlängerung gab es bereits im Sommer. Bildbeschreibung einblenden

Proteste vor der EU-Kommission gegen die Glyphosat-Zulassungsverlängerung gab es bereits im Sommer. Bild: AFP

Die Zeit ist reif: Wird der Streit um das Totalherbizid Glyphosat am morgigen Donnerstag im zuständigen EU-Ausschuss beendet? Ein Plädoyer gegen einen Kompromiss zugunsten des Pestizids.

Unsere Kinder wachsen mit einem Schadstoffcocktail aus Unkrautvernichtern, Insektiziden und Fungiziden auf. Ihre Nahrung, ihr Wasser, sogar ihre Parks und Spielplätze sind damit getränkt. Viele Regierungen behaupten beharrlich, dass unsere Schutzstandards gegen diese Pestizide stark genug sind. Doch als Wissenschaftler und Jurist, der sich auf Chemikalien und deren mögliche Auswirkungen auf grundlegende Menschenrechte spezialisiert, bin ich anderer Ansicht.

Letzten Monat kam es ans Licht: Als die Europäische Behörde für Lebensmittelsicherheit Glyphosat – das meistverwendete Pflanzengift weltweit – als unbedenklich einstufte, hatte sie ganze Seiten aus einem Bericht von Monsanto, dem Hersteller des Pestizids, abgeschrieben. Solche Enthüllungen sind schlichtweg schockierend.

Vor zwei Wochen blockierten einige europäische Länder den Vorstoß, Glyphosat für weitere zehn Jahre zuzulassen. Bei dieser Entscheidung geht es um weitaus mehr als nur ein Pestizid. Sie ist ein begrüßenswertes Anzeichen, dass die EU-Mitgliedstaaten ihre Pflicht gründlicher wahrnehmen: vor Menschenrechtsverletzungen durch Unternehmen zu schützen, wenn diese uns Pestiziden und anderen toxischen Chemikalien aussetzen.

Bild: dpa

Die UN-Konvention über die Rechte des Kindes, das am häufigsten ratifizierte internationale Menschenrechtsabkommen der Welt (nur die Vereinigten Staaten sind nicht beigetreten), bekräftigt: Staaten sind ausdrücklich dazu verpflichtet, Kinder vor der Belastung durch toxische Chemikalien sowie vor kontaminierten Lebensmitteln und verunreinigtem Wasser zu schützen. Sie müssen außerdem dafür Sorge tragen, dass das Recht eines jeden Kindes auf das erreichbare Höchstmaß an Gesundheit gewährleistet wird. Diese und viele weitere Rechte des Kindes werden durch unseren derzeitigen Umgang mit Pestiziden verletzt.

Kinderärzte haben die Belastung durch Pestizide im Kindesalter als „stille Pandemie“ bezeichnet, die Krankheiten und Behinderungen verursacht. Der Kontakt mit Pestiziden während der Schwangerschaft und im Kindesalter wird mit Geburtsfehlern, Diabetes und Krebs in Verbindung gebracht. Der sich entwickelnde Körper eines Kindes reagiert empfindlicher als Erwachsene auf diese Belastung und nimmt allgemein mehr von allem zu sich: Im Verhältnis zu ihrer Größe essen, atmen und trinken Kinder sehr viel mehr als Erwachsene und sind deshalb durch diese toxischen Chemikalien besonders gefährdet. Es gibt zunehmend Beweise dafür, dass sogar „geringe“ Einwirkungen im Kindesalter irreversible Gesundheitsschäden zur Folge haben können. Doch die meisten Betroffenen können die Ursache ihrer Behinderung oder Erkrankung nicht nachweisen, was uns in unserer Fähigkeit einschränkt, die Verantwortlichen zur Rechenschaft zu ziehen.

Diese Chemikalien sind unsichtbar und lauern überall. Nur wenn die Regierungen sie wirksam regulieren und dabei vor allem die höchsten Standards der wissenschaftlichen Integrität einhalten, können die Menschen geschützt werden – insbesondere diejenigen, die unverhältnismäßig großen Belastungsrisiken ausgesetzt sind.

Angesichts der Enthüllungen wie des Copy-and-Paste-Skandals zu Glyphosat ist es notwendig, erneut sorgfältig zu prüfen, wie gut Staaten ihre Bürger schützen. Dass sich Regulierungsbehörden im Übermaß auf industriefinanzierte Studien verlassen, unabhängige Wissenschaft aus Gutachten ausgeschlossen wird und Studien geheim bleiben, obwohl sie von Behörden als Grundlage verwendet werden, das kann so nicht weitergehen.

Doch die vorherrschenden Fehlinformationen ziehen noch weitere Kreise. Viel zu lange waren die Debatten über Pestizide unverhältnismäßig stark auf die Frage ausgerichtet, ob wir die Welt ohne sie ernähren können. Die Sonderberichterstatterin für das Recht auf Nahrung hat deutlich gesagt, dass wir das können. Ihr zufolge ist es ein Mythos, dass der hochintensive Einsatz von Pestiziden zur Ernährung der Menschheit nötig sei. Es gibt Lösungen, um gesündere und nährstoffreichere Lebensmittel herzustellen und dabei Kleinbauern zu unterstützen, die Artenvielfalt zu fördern und die Widerstandskraft des Klimas zu stärken. Unser übermäßiger Einsatz gefährlicher Pestizide ist eine kurzfristige Lösung, eine Sucht, die das Recht auf sichere und angemessene Ernährung und Gesundheit für gegenwärtige und künftige Generationen untergräbt.

Werden die Regulierungsbehörden weiterhin dem Mythos verfallen, dass Pestizide notwendig sind, um die Welt zu ernähren? Werden sie sich weiterhin auf Wissenschaft verlassen, die von der Industrie gefördert wird? Oder werden sie die Menschenrechte – insbesondere die Rechte des Kindes – schützen und angesichts der erheblichen Ungewissheiten das Vorsorgeprinzip anwenden?

Wenn sich die Europäische Kommission diese Woche wieder an den Tisch setzt, um über die Zukunft von Pestiziden zu debattieren, hoffe ich, dass sie dabei eines im Sinn behält: ihre Pflicht, unsere Rechte und die Rechte unserer Kinder voranzustellen.

*****************************************************************************

http://www.keine-gentechnik.de/nachricht/32835/

Glyphosat: keine Mehrheit für 5-Jahres-Vorschlag der EU-Kommission

09.11.2017

UPDATE +++ Die Europäische Kommission ist mit ihrem Vorschlag gescheitert, das Pflanzengift Glyphosat für weitere fünf Jahre zu erlauben. Wie erwartet fanden die Mitgliedsländer heute in Brüssel weder dafür noch dagegen eine qualifizierte Mehrheit. Unterdessen hat Bundesagrarminister Christian Schmidt (CSU) der EU-Kommission signalisiert, Deutschland könne einer Verlängerung der Glyphosat-Zulassung um drei Jahre zustimmen.

In einem Brief an den zuständigen EU-Gesundheitskommissar Vytenis Andriukaitis verwies Schmidt am Mittwoch darauf, dass Frankreich diese Position teile. Nicht geteilt wird sie aber offenbar innerhalb der noch amtierenden Bundesregierung. Bundesumweltministerin Barbara Hendricks (SPD) verurteilte Schmidts Vorstoß, der nicht einmal mit dem Bundeskanzleramt abgestimmt gewesen sei als „Foulspiel“. „Die Kommission hat bis heute keinerlei Vorkehrungen gegen die katastrophalen Auswirkungen auf die Artenvielfalt vorgesehen“, kritisierte Hendricks. Daher bleibe sie bei ihrem Nein zur weiteren Zulassung von Glyphosat.

Hier will Schmidt offenbar Abhilfe schaffen. Er schlug dem EU-Kommissar vor, die 2016 gemeinsam mit dem Umweltministerium eingebrachte Biodiversitätsklausel in die Zulassung mit aufzunehmen. Außerdem regte er an, Glyphosat für den Privatgebrauch zu verbieten und das Genehmigungsverfahren für „Pflanzenschutzmittel“ zu optimieren.

Während Umweltstaatssekretär Jochen Flasbarth (SPD) Schmidts Vorstoß auf Twitter als wenig sondierungsfreundliches Verhalten anprangerte, reagierten die Grünen, die mit der CDU gerade eine Jamaika-Koalition ausloten, erstaunlich gelassen. Es sei „bemerkenswert“, wie weit der Agrarminister sich schon bewegt habe, meinte etwa der grüne Bundestagsabgeordnete Harald Ebner. „Um grüne Unterstützung zu bekommen, fehlt aber noch das klare Bekenntnis zum Ausstieg“, stellte der Pestizidexperte klar. Außerdem müsse die Anwendung von Glyphosat in der Landwirtschaft sofort und deutlich beschränkt werden. Die Grünen hatten die CDU mehrfach davor gewarnt, die Zulassung für Glyphosat in der EU während der Koalitionsverhandlungen durchzuwinken.

Wenig Effekt hatte der Brief des Agrarministers offenbar in Brüssel. Wie eine Sprecherin dem Infodienst Gentechnik auf Anfrage mitteilte, werde die EU-Kommission den Mitgliedsländern bei der nächsten Beratung erneut ihren Fünf-Jahres-Vorschlag vorlegen. Der sogenannte Berufungsausschuss, bei dem hochrangige Vertreter der EU-Staaten erneut diskutieren und abstimmen werden, soll voraussichtlich noch vor dem 22. November tagen. Experten gehen nicht davon aus, dass sich die Mehrheitsverhältnisse bis dahin ändern werden. Das könnte bedeuten, dass die EU-Kommission die Entscheidung über Glyphosat dann doch selbst treffen will. Die aktuelle Zulassung läuft am 15.12.2017 aus.

Im zuständigen EU-Ausschuss stimmten heute 14 Mitgliedsländer dafür, das Pflanzengift für weitere fünf Jahre zu erlauben. Sie repräsentieren 36,5 Prozent der EU-Bevölkerung. Neun Staaten waren dagegen, fünf enthielten sich der Stimme, darunter Deutschland. Für eine qualifizierte Mehrheit ist ein Votum von 16 EU-Staaten nötig, die 65 Prozent der EU-Bevölkerung vertreten.

„Aus Umweltsicht war der Entwurf eine einzige Enttäuschung“, kritisierte der Naturschutzbund Deutschland (NABU) die Beschlussvorlage von Gesundheitskommissar Andriukaitis. „Die Kommission hatte weder ein Verbot der Sikkation vorgesehen noch Glyphosat im Haus- und Kleingartenbereich oder in Schutzgebieten verbieten wollen“, so NABU-Bundesgeschäftsführer Leif Miller. Die Jamaika-Sondierer forderte er auf, mindestens ein schrittweises Verbot des Totalherbizids in den Koalitionsvertrag aufzunehmen.

Ein Ausstiegsprogramm für Glyphosat aus der Landwirtschaft forderte der Bund für Umwelt- und Naturschutz Deutschland (BUND). „Landwirte brauchen Beratung und Unterstützung für einen Ackerbau, der ohne Glyphosat auskommt“, so BUND-Pestizidexpertin Heike Moldenhauer. Und ihre Verbandskollegin Christiane Huxdorff von Greenpeace ergänzte: „Die künftige Bundesregierung muss sich für ein nationales wie europäisches Verbot von Glyphosat stark machen.“ [vef]

 

*******************************************************************************
.com/watch?v=JWMdFfH1LRQ

Gift im Essen Missbildungen durch Glyphosat ARD Fakt 12 11 2013

ab Minuten 4:50 – „der Robinson – Bericht“ – „Claire Robinson“

BfR“ zum „Robinson-Bericht„: „Der ROBINSON-BERICHT ist ein anspruchsvolles Dokument das eine Viel-Zahl von FRAGEN aufwirft (WELCHE) die sehr ernst genommen werden sollten“?!

***************************************************************************

http://www.pan-germany.org/download/glyphosate/GLO%2002%20Glyphosat%20Summary%20D.pdf

Zusammenfassung
 Glyphosat und Krebs: Systematischer Regelbruch durch die Behörden
Die Tricks von Monsanto und der Beitrag
der Behörden, um Glyphosat vor einem
Verbot zu retten.
Drei Behörden haben Glyphosat bescheinigt, nicht krebserregend zu sein: erst das deutsche Bundesinstitut für Risikobewertung (BfR – für die Bewertung von Glyphosat in der EU zuständig), die Europäische Behörde für Lebensmittelsicherheit (EFSA); und schließlich die Europäische Chemikalienagentur (ECHA). Das BfR erstellte für die EFSA und danach für die ECHA jeweils den Bewertungsbericht. Hingegen stufte die Internationale Krebsforschungsagentur der Weltgesundheitsorganisation, IARC, Glyphosat als „wahrscheinlich krebserregend beim Menschen“ ein. Diese zweithöchste der möglichen Einstufungen erfolgte unter Berücksichtigung folgender Erkenntnisse: hinreichende Belege für eine krebserregende Wirkung bei Versuchstieren („sufficient evidence“) starke Belege für zwei Mechanismen wie durch Glyphosat Krebs entstehen kann
(„strong evidence“ ) begrenzte epidemiologische Befunde beim Menschen („limited evidence“). Der Toxikologe Dr. Peter Clausing, der auch als Beobachter an den Sitzungen der ECHA teilnahm, hat die Bewertung der Tierstudien durch die EU-Behörden analysiert. Seine Analyse zeigt, dass die Behörden eindeutige Belege für eine krebserregende Wirkung bei Tieren missachten und beiseite schieben und Richtlinien und Empfehlungen von der OECD und der ECHA selbst, die ihre Arbeit
leiten sollen, grob verletzen.
Die Ergebnisse der Studien an Ratten und Mäusen haben laut Verordnung (EG) 1272/2008 zentrale Bedeutung: Es genügen zwei voneinander unabhängige Studien mit positiven Krebsbefunden, um eine Substanz als krebserregend einzustufen. Im Fall von Glyphosat weisen mindestens 7
von 12 solcher Langzeitstudien positive Krebsbefunde auf. Die Einschätzung, dass Glyphosat trotz dieser Befunde nicht krebserregend sei, gelang den Behörden nur durch Verletzung der Verordnung (EG 1272/2008) ihrer eigenen Richtlinie von 2015 und jener der OECD von 2012 sowie durch das Verschweigen und Verdrehen von Tatsachen. Die fünf wichtigsten Verstöße werden nachstehend beschrieben.
1. Versäumnisse und Verdrehungen

bei der statistischen Auswertung…………

2. Angebliche „Hochdosis-Effekte“……..

3. Behauptetes Fehlen von

Dosis-Wirkungs-Beziehungen……..

4. Unzulässige und verzerrte Nutzung
„historischer Kontrollen“……….
5. Willkürliche Studienauswahl
******************************************************************************
 3SAT: Herbizid – GLYPHOSAT

 

********************************************************************************

siehe auch „Monika Krüger“

********************************************************************************

 

aus dem TEXT:…..Die Internationale Krebsforschungsagentur (IARC) in Lyon hatte die Substanz vor zwei Jahren als „wahrscheinlich krebserregend“ eingestuft. „Das wäre ein riesengroßes Problem für das weltweit gängigste Pflanzenschutzmittel“, sagt Gies. Nach europäischen Recht dürften Pestizide, die das Erbgut schädigen, nicht zugelassen werden……(<<<<Es gibt Beweise dafür – siehe auch PLAGIAT des „BfR“>>>>)

http://www.spiegel.de/gesundheit/ernaehrung/chemikalien-in-der-umwelt-im-koerper-kann-man-300-stoffe-nachweisen-a-1176339.html

Chemikalien in der Umwelt „Viele Stoffe sind problematischer, als wir gedacht haben“

Weichmacher, Dünger, Schwermetalle: Tausende Stoffe gelangen in die Umwelt. Ihre Wirkung im menschlichen Körper bleibt oft ungeklärt.

imago

Das deutsche Schadstoffgedächtnis ruht in einer umgebauten ehemaligen Bunkeranlage in Münster. In unterirdischen Räumen lagern bei etwa minus 150 Grad Celsius derzeit etwa 350.000 Blut- und Urinproben in Metalltanks mit flüssigem Stickstoff – jedes Jahr kommen bis zu 15.000 weitere dazu.

Das Archiv der Umweltprobenbank reicht zurück bis 1981. „Wir sammeln, charakterisieren und lagern die Proben für spätere Analysen“, sagt Dominik Lermen vom Fraunhofer-Institut für Biomedizinische Technik (IBMT). „So kann man die Proben nachträglich auf bestimmte Stoffe untersuchen.“

Jedes Jahr werden neue Proben an vier verschiedenen Orten gesammelt . Münster, Ulm, Greifswald und Halle stehen stellvertretend für West-, Süd-, Nord- und Ostdeutschland. Ihr Inhalt, der letztlich in Münster gelagert wird, ist von unschätzbarem Wert: Er gibt Aufschluss darüber, welchen Schadstoffen in welchen Mengen Bundesbürger verschiedener Regionen ausgesetzt waren und sind.

140.000 verschiedene Chemikalien auf dem Markt

„Wir können jederzeit schauen, wie sich die Belastung mit der Zeit entwickelt hat“, sagt Marike Kolossa-Gehring vom Umweltbundesamt (UBA), die das Projekt leitet. Das UBA wertet die Analysen aus und ist zuständig für die Beratung der Bundesregierung und auch der Bevölkerung.

Wie wichtig die Humanproben – ähnliche Projekte registrieren die Belastung von Böden, Tieren und Pflanzen – sind, zeigen die immer neu aufflammenden Diskussionen um bestimmte Chemikalien.

Da ist der allgegenwärtige Plastikgrundstoff Bisphenol A, das Herbizid Glyphosat oder das jüngst in Eiern nachgewiesene Biozid Fibronil. Insgesamt, so schätzt Kolossa, seien derzeit etwa 140.000 verschiedene Chemikalien auf dem Markt. Viele davon landen im Organismus.

„Im Körper kann man locker 300 Stoffe nachweisen“, berichtet sie. Die müssen darauf geprüft werden, ob sie die Gesundheit gefährden können – sowohl einzeln als auch in möglichen Kombinationen. Eine schwierige Aufgabe.

Für manche Einzelstoffe zeigen Langzeitreihen durchaus erfreuliche Trends: „Wir haben viele Probleme gelöst“, sagt Andreas Gies, Leiter der UBA-Abteilung „Umwelthygiene“. „Wir beobachten über den Zeitverlauf, dass viele Belastungen deutlich zurückgegangen sind, teilweise bis zu 90 Prozent.“

Problem der Einstufung

Beispiel Blei: Bei Menschen aus Münster sanken die Werte von 1981 – damals war Benzin noch verbleit – bis 2016 von mehr als 70 auf 9 Mikrogramm pro Liter Blut. Tendenz: weiter abnehmend.

Trotz des positiven Trends besteht kein Grund für Entwarnung. „Wir haben immer noch Probleme“, betont Gies. Weil Bleiverbindungen krebserregend seien und das Gehirn schädigten, gebe es keine untere Grenze – jede noch so geringe Konzentration könne Schäden verursachen. „Viele Stoffe sind problematischer, als wir früher gedacht haben“, sagt Gies.

Hohe Wellen schlägt momentan der Streit um Glyphosat, über dessen weitere Zulassung die EU am 9. November entscheiden könnte. Die Debatte dreht sich zurzeit vor allem darum, ob es die menschliche Gesundheit schädigt.

Die Internationale Krebsforschungsagentur (IARC) in Lyon hatte die Substanz vor zwei Jahren als „wahrscheinlich krebserregend“ eingestuft. „Das wäre ein riesengroßes Problem für das weltweit gängigste Pflanzenschutzmittel“, sagt Gies. Nach europäischen Recht dürften Pestizide, die das Erbgut schädigen, nicht zugelassen werden.

Streit um Wahrscheinlichkeiten

Das Bundesinstitut für Risikobewertung (BfR) vertritt eine andere Einschätzung und steht seitdem in der Kritik. Bei sachgerechter Anwendung in der Landwirtschaft seien beim Menschen keine krebserzeugenden, erbgutverändernden oder entwicklungsschädigenden Risiken von Glyphosat zu erwarten, heißt es in einer Stellungnahme.

Die von der IARC abweichende Einschätzung erklärt das BfR damit, die Krebsforschungsagentur prüfe lediglich die Eigenschaft eines Wirkstoffes, Krebs zu erzeugen – „nicht aber die Wahrscheinlichkeit, dass Krebs tatsächlich erzeugt wird, wenn dies von der Höhe der Aufnahmemenge abhängig ist“.

Analysen der Humanprobenbank von 2001 bis 2015 belegen jedenfalls, dass viele Bundesbürger den Stoff im Körper tragen. Urinproben aus Greifswald zeigen, dass 2001 rund zehn Prozent der Menschen Glyphosatwerte über dem Wert von 0,1 Mikrogramm pro Liter hatten. Bis zum Jahr 2012 waren es 58 Prozent, bis 2015 sank der Anteil auf 40 Prozent.

„Nach der Risikoeinschätzung der Europäischen Behörde für Lebensmittelsicherheit (EFSA) ist keine der gemessenen Glyphosat-Konzentrationen problematisch für die menschliche Gesundheit“, schrieb ein Team um Kolossa-Gehring kürzlich im „International Journal of Hygiene and Environmental Health“.

Weichmacher im Urin

„Allerdings hat die Internationale Krebsforschungsagentur Glyphosat als „für Menschen wahrscheinlich krebserregend“ klassifiziert. Berücksichtigt man diese Einschätzung, verdient vor allem die in den Proben dokumentierte zunehmende Tendenz für eine innere Glyphosat-Belastung Aufmerksamkeit in Hinsicht auf die menschliche Gesundheit.“

Kolossa-Gehring bedauert die insbesondere im Internet oft aggressiv geführte Debatte. „Dieser Streit verunsichert die Bevölkerung in höchstem Maß“, klagt sie. Aber nicht nur einzelne Stoffe machen ihr Sorge, sondern Chemikalien-Cocktails und die Frage, ob und wie sich verschiedene Stoffe im Körper verstärken. Dies ist weitgehend ungeklärt.

Beispiel Phthalate: Die Plastik-Weichmacher werden vor allem zur Herstellung von PVC-Kunststoffen genutzt. Doch ein Teil der Stoffe entweicht. Dass Phthalate vor allem bei Männern die Fruchtbarkeit schädigen können, gilt als wahrscheinlich.

Die Stoffe unterliegen laut Kolossa-Gehring seit Anfang des Jahres 2015 einer Zulassungspflicht, was de facto einem Verbot gleichkomme. In nahezu sämtlichen Urinproben seien Umwandlungsstoffe der meisten Phthalate nachgewiesen worden, heißt es von Seiten der Umweltprobenbank. Dies weise auf eine allgegenwärtige Belastung der deutschen Bevölkerung hin.

Summieren sich Effekte?

Zwar sanken die Belastungen der Bundesbürger seit Mitte der 1990er Jahre, aber dafür steigen nun die Konzentrationen der sieben bis acht Ersatzstoffe wie etwa Hexamoll Dinch. Allein von dieser Substanz werden laut Kolossa-Gehring jährlich mehr als 200.000 Tonnen produziert – deutlich steigende Konzentrationen im Urin der Bundesbürger spiegeln diese Entwicklung wider.

Dinch ist in der EU für Lebensmittelverpackungen zugelassen, dennoch bleiben für Kolossa-Gehring Fragen offen. „Ich glaube nicht, dass wir die Wirkungen dieser Stoffe ausreichend bewerten können“, sagt sie.

Ist es mitunter schon schwierig, das Risiko einzelner Substanzen zu bewerten, so ist das bei Chemikalien-Cocktails fast ausgeschlossen. Experten gehen davon aus, dass sich Effekte mancher Stoffe im Körper summieren können.

Darauf verwies Andreas Kortenkamp von der Brunel University London schon vor Jahren mit Blick auf endokrine Disruptoren – also Stoffe wie Phthalate oder Bisphenol A, die hormonartig wirken: „Es gibt gute Belege, die zeigen, dass gemeinsame Effekte auftreten, selbst wenn jeder Bestandteil einer Kombination unterhalb von Konzentrationen vorliegt, bei denen beobachtbare Effekte auftreten“, schrieb er schon 2007 im Fachblatt „Environmental Health Perspectives“.

„Man kann Kaufentscheidungen treffen“

Die UBA-Mitarbeiterin Kolossa-Gehring glaubt, dass das auch für andere Stoffe gilt, etwa Weichmacher. „Es gibt viele Hinweise darauf, dass eine Reihe von Phthalaten additiv wirken“, sagt sie. Es sei also möglich, dass mehrere Stoffe, die einzeln keine Wirkung zeigen, zusammen durchaus Effekte hätten – insbesondere wenn sie auf die gleiche Körperregion wirken.

„Die Bewertung von Einzelstoffen verharmlost etliche Risiken“, glaubt sie, weiß aber auch. „Die Untersuchung möglicher Kombinationen ist eine unendliche Aufgabe.“

Doch wie kann man als Verbraucher die Aufnahme bedenklicher Stoffe minimieren? Absoluten Schutz gebe es nicht, sagt Kolossa-Gehring. Zur Vermeidung von Schadstoffen sei es aber ratsam, Produkte aus biologischem Anbau zu konsumieren. „Man kann Kaufentscheidungen treffen.“

Von Walter Willems, dpa/boj

*******************************************************************************