„Elektro-Mobilität“- – Studie: „Elektro-Autos“ sind nicht besser für die Umwelt als „Benziner“ /// Wie „Microsoft“ und „Google“ KREBS besiegen wollen?!

https://deutsche-wirtschafts-nachrichten.de/2017/11/11/studie-elektroautos-sind-nicht-besser-fuer-die-umwelt-als-benziner/
****************************

Studie: Elektroautos sind nicht besser für die Umwelt als Benziner

Große Elektroautos sind – von der Herstellung bis zur Verschrottung gerechnet – für das Klima schädlicher als herkömmliche Kleinwagen.

Ein elektrisch angetriebener BMW i3 lädt an einer Ladesäule in der Innenstadt von Leipzig. (Foto: dpa)

Ein elektrisch angetriebener BMW i3 lädt an einer Ladesäule in der Innenstadt von Leipzig. (Foto: dpa)

Neueste Studien deuten darauf hin, dass Elektroautos nicht per se besser für die Umwelt sind als Autos mit Verbrennungsmotor. Die Umweltschädlichkeit hänge vielmehr von einer ganzen Reihe von Faktoren ab, berichtet die Financial Times unter Berufung auf eine Studie des Massachusetts Institute of Technology.

Berechnet man den Ausstoß von Kohlenstoffdioxid (CO2) sowie den Ressourcenverbrauch während des gesamten Lebenszyklus eines Elektroautos, so wird das in den Medien transportierte Bild vom emissionsfreien Elektroauto schnell wiederlegt. Beispielsweise ist es nicht ungewöhnlich, dass die Energie- und Umweltbilanz kleinerer Autos mit Verbrennungsmotor oftmals besser sei als bei größeren Elektroautos.

Die FT beschreibt diesen Sachverhalt durch einen Vergleich des Kleinwagens Mitsubishi Mirage mit einer größeren Elektrolimousine vom Typ Model S des Autobauers Tesla. Untersucht man die für die gesamte Produktion und die Entsorgung notwendigen CO2-Emissionen, dann schneidet der Mitsubishi Mirage über den gesamten Lebenszyklus betrachtet mit durchschnittlich etwa 192 Gramm ausgestoßenem CO2 pro gefahrenem Kilometer besser ab als das Model S mit rund 226 Gramm.

Richtig ist aber auch, dass ein vergleichbar großer Benziner wie das Model S – etwa ein BMW aus der 7-Serie – mit 385 Gramm deutlich mehr CO2 pro Kilometer bezogen auf den Lebenszyklus emittiert.

Zu bedenken ist außerdem, an welchem Ort das Fahrzeug gefahren wird und wie dort der Strom generiert wird. Auf ein in Polen gefahrenes Elektroauto – wo der Großteil der Elektrizität durch Kohlekraftwerke generiert wird – entfallen beispielsweise bedeutend mehr CO2-Emissionen als in anderen Teilen Europas.

Die Frage, woher der Strom für hunderttausende in den kommenden Jahren neu auf die Straße drängenden Elektroautos kommen soll, ist ebenfalls sehr wichtig. Da alternative Energiequellen dafür allein höchstwahrscheinlich nicht ausreichen werden, könnten neue Atom- oder Kohlekraftwerke gebaut werden müssen.

Das größte Umweltproblem des Elektroautos stellt eindeutig die Batterie dar. Deren Herstellung verbraucht große Mengen an seltenen Metallen und Rohstoffen, die oft unter katastrophalen Bedingungen abgebaut werden. Vor Kurzem scheiterte Volkswagen mit dem Bemühen, eine langfristige Liefervereinbarung für Kobalt zu erhalten. Der Preis des Metalls ist in den vergangenen Monaten explodiert und die Händler waren nicht bereit, sich für längere Zeit preislich zu binden. Ein großer Teil des auf dem Weltmarkt verfügbaren Kobalts wird zudem unter menschenunwürdigen Bedingungen in Afrika abgebaut. Ähnliches gilt für das für Batterien wichtige Lithium, dessen Preis in letzter Zeit ebenfalls stark gestiegen ist.

Das Massachusetts Institute of Technology schätzt, dass die Produktion eines Tesla S insbesondere wegen der Batterie etwa 12,2 Tonnen CO2 emittiert – verglichen mit etwa 8,2 Tonnen beim 7er BMW und 4,7 Tonnen beim Mitsubishi Mirage.

Vor diesem Hintergrund ist das Streben der Autobauer nach längeren Reichweiten und damit größeren Batterien bedenklich. „Das ist ein sehr dummes Wettrennen. Wenn sie einfach vom Erdöl auf Kobalt und Lithium umsteigen, dann haben Sie kein Problem gelöst, sondern einfach die Probleme getauscht“, sagt ein von der FT befragter Analyst. Stattdessen sollte die Politik dafür sorgen, dass kleinere und leichtere Autos gefördert werden – elektrische wie solche mit Antriebsmotor.

Dem Analysten zufolge emittiert ein Kleinwagen-Benziner mit einem Gewicht von rund 500 Kilogramm über seine Lebensdauer weniger CO2 als ein elektrischer Mittelklassewagen in Paris – wo rund 75 Prozent des Stroms aus der emissionsfreien Atomkraft stammen.

*** Für PR, Gefälligkeitsartikel oder politische Hofberichterstattung stehen die DWN nicht zur Verfügung. Daher bitten wir Sie, liebe Leserin und Leser, um Ihre Unterstützung! Hier können Sie sich für einen kostenlosen Gratismonat registrieren. Wenn dieser abgelaufen ist, erhalten Sie automatisch eine Nachricht und können dann das Abo auswählen, das am besten Ihren Bedürfnissen entspricht. Einen Überblick über die verfügbaren Abonnements bekommen Sie hier.

 

*******************************************************************************

http://www.spiegel.de/auto/aktuell/berlin-ministerien-beschweren-sich-ueber-hybrid-dienstwagen-a-1177341.html

Elektromobilität Ministerien beschweren sich über Hybrid-Dienstwagen

Staatssekretäre im Bundesverkehrs- und Finanzministerium klagen über ihre Plug-In-Hybride von BMW. Die Limousinen mit teilweisem Elektrobetrieb entpuppen sich als Spritfresser.

Von Gerald Traufetter

BMW-Hybridlimousinen am Münchner Flughafen

Rainer Häckl / BMW

BMW-Hybridlimousinen am Münchner Flughafen

Wer als Ministerialer in Berlin dieser Tage mit seinem Dienstwagen vorfährt, sollte auf seinem Kennzeichen ein E stehen haben, E für Elektro. Das gilt als umweltfreundlich, schick und modern. Vor allem wird es dann nicht so peinlich, wenn Umweltverbände, wie sie es fast jedes Jahr tun, nach dem Flottenverbrauch des Ministerium-Fuhrparks fragen. Besonders beliebt sind deswegen in Berlin sogenannte Plug-In-Hybride, die sowohl einen Verbrennungs- als auch Elektromotoren besitzen. Sie sind groß, komfortabel und trotzdem sparsam. (Diese Meldung stammt aus dem SPIEGEL. Den neuen SPIEGEL finden Sie hier.)

Zumindest auf dem Papier. Denn offenbar sind die Spitzenbeamten aus den Bundesministerien, die sich darin chauffieren lassen, zunehmend frustriert über ihre neuen Dienstwagen mit Hybridantrieb. Ihre Fahrer klagen nach Informationen des SPIEGEL darüber, dass die Autos nur sehr kurze Strecken elektrisch zurücklegen, statt die vom Werk angegebenen Reichweiten zu erfüllen.

Dann aber, wenn der Verbrennungsmotor anspringt, seien die Verbräuche exorbitant hoch, zumal die Wagen wegen der Elektromotoren schwerer sind. Wegen kleinerer Tanks müssten die Chauffeure ständig nachtanken, heißt es. Zwei Staatssekretären aus Bundesfinanz- und Verkehrsministerium reicht es nun: Sie haben sich beim Hersteller BMW über ihren Dienstwagen vom Modell 740e iPerformance beschwert.

Falsche Förderung?

Die Irritation in der Bundesregierung ist auch deshalb so groß, weil man die Plug-in-Hybride mit in die Elektromobilitätsförderung aufgenommen hatte, was den Kunden einen Umweltbonus von 3000 Euro sichert. Der Zuschuss scheint mit Blick auf den wahren CO2-Ausstoß nicht wirklich gerechtfertigt zu sein.

Um in den Genuss der Elektro-Privilegierung zu kommen, müssen die Plug-in-Hybride weniger als 50 Gramm Kohlendioxid pro Kilometer ausstoßen. In die Berechnung dieser Werte bei den Zulassungstests fließen Anteile ein, die der Elektromotor bei überwiegend geringen Geschwindigkeiten fährt, und jene, die der Verbrennungsmotor übernimmt. Die Bemessung ist derart günstig für den Elektrobetrieb gewählt, dass bei normalem Fahrverhalten der Durchschnittsverbrauch bei Plug-In-Hybriden noch realitätsferner ist als bei normalen Autos. (Lesen Sie hier alles über „Die Verbrauchslüge“).

BMW bestätigt die „Rückmeldungen aus dem Fuhrpark“ der Ministerien, verweist darauf, dass die Diskrepanz zwischen angegebenem und realem Verbrauch „nicht nur von BMW-Kunden beobachtet wird“. Das stundenlange Warten auf die Ministerialen mit Standheizung würde die „verfügbare Reichweite für das elektrische Fahren reduzieren“, erklärte BMW auf Nachfrage des SPIEGEL.

Das Eingeständnis derart starker Abweichungen von angegebenem und realen Verbrauch könnte die Hersteller in Bedrängnis bringen, weil sie sich Plug-In-Hybride in der künftigen Regelung der CO2-Grenzwerte anrechnen lassen wollen. Wenn sie im Jahre 2025 mindestens 15 Prozent elektrischer Autos oder Hybridfahrzeuge verkaufen, dann bekommen sie Abschläge beim CO2-Grenzwert ihrer Autoflotte. Umweltverbände kritisieren diese Regelung.

 

***************************************************************************

http://www.spiegel.de/auto/aktuell/wltp-wie-die-verbrauchs-luege-beendet-werden-soll-a-1176194.html

Neue Abgas- und Spritmessung Die Verbrauchslüge

Neuwagen verbrauchen laut einer Studie im Schnitt rund 42 Prozent mehr Sprit als vom Hersteller angegeben. Doch mit den extremen Abweichungen soll bald Schluss sein – dank eines neuen Prüfverfahrens.

Von Christian Frahm

Neue Abgasmessung: Der WLTP im Überblick Fotos
Volkswagen
r

Viele Autobesitzer verzweifeln daran, dass ihr Wagen ständig mehr verbraucht als im Prospekt versprochen – selbst bei bewusst spritschonender Fahrweise. Wie weit die CO2- und Kraftstoffwerte fernab der Realität liegen, hat jetzt erneut die Umweltorganisation International Council on Clean Transportation (ICCT) untersucht. Das Ergebnis ihrer am Montag veröffentlichten Studie: Im Durchschnitt liegt der Verbrauch von Neuwagen in Europa 42 Prozent höher als von den Herstellern angegeben.

Die ICCT ist eine unabhängige Forschungsorganisation, die vor zwei Jahren den VW -Dieselskandal in den USA mit aufgedeckt hat. Als die Studie im Jahr 2013 zum ersten Mal veröffentlicht wurde, lag die Diskrepanz noch bei etwa 25 Prozent. Bereits im vergangenen Jahr betrug die Kluft aber mehr als 40 Prozent.

Ein Hauptgrund für die extremen Abweichungen war nach Ansicht von Experten der Testzyklus, mit dem die Werte lange Zeit ermittelt wurden. Doch genau hier hat sich seit Kurzem etwas geändert.

Der sogenannte NEFZ (Neuer Europäischer Fahrzyklus) wurde durch den WLTP (Worldwide Harmonized Light Vehicles Test Procedure, zu Deutsch „weltweit einheitliches Leichtfahrzeuge-Testverfahren“) ersetzt. Dessen überarbeitete Testbedingungen und Fahrprofile könnten die Diskrepanz zwischen offiziellen und realen Verbrauchswerten etwa halbieren, erwarten die ICCT-Forscher.

Was ändert sich – und was bedeutet das für den Autofahrer? Die wichtigsten Infos zum neuen Testverfahren.

Wieso wurde das neue Verfahren entwickelt?

Das seit 1992 gültige Testverfahren NEFZ ist schlicht nicht mehr zeitgemäß. Zum einen, weil das Fahrprofil – also die Strecke, die Fahr- und Standzeiten sowie die gefahrenen Geschwindigkeiten auf dem Prüfstand – nicht mehr dem heutigen Fahrverhalten entspricht.

Zum anderen, weil der NEFZ den Herstellern viele Schlupflöcher bot, was die absurd niedrigen Prüfstandswerte erklärt: Wie wenig die NEFZ-Prozedur mit einer realen Autofahrt zu tun hat, zeigt sich, wenn man den Labortest auf die Straße überträgt: Demnach müsste man allein im Auto sitzen, der Tank dürfte nur zu 40 Prozent gefüllt sein, Heizung, Gebläse und Radio müsste abgeschaltet sein und die Strecke müsste topfeben geradeaus gehen – selbstverständlich ohne Gegenwind.

Um den Verbrauchern realere Abgas- und Verbrauchsangaben liefern zu können, wurde daher das neue Testverfahren WLTP festgelegt, das seit 1. September diesen Jahres gilt. Dieser Test basiert erstmals auf realen Fahrdaten aus Asien, Europa und den USA und damit auf einem repräsentativeren Fahrprofil als bislang.

Wie unterscheiden sich WLTP und NEFZ?

Vergleicht man den WLTP mit dem NEFZ, fällt auf, dass der neue Test deutlich länger dauert, nämlich 30 statt 20 Minuten. Dadurch erhöht sich die gefahrene Strecke von bislang elf auf jetzt 23,25 Kilometer. Gleichzeitig sinkt der Zeitanteil, in dem das Auto stillsteht (etwa um Ampelstopps zu simulieren) von 25 Prozent beim NEFZ auf 13 Prozent im WLTP.

Außerdem wird jetzt deutlich häufiger beschleunigt, einmal auf bis zu 131 km/h (NEFZ maximal 120 km/h), wodurch die Durchschnittsgeschwindigkeit von 33,6 km/h im alten Zyklus auf 46,6 km/h im WLTP steigt.

Auch die Testvorgaben für die Außentemperatur werden präzisiert: Galt beim NEFZ noch ein Temperaturfenster von 20 bis 30 Grad, wird das Auto im neuen Zyklus bei exakt 23 getestet. Den klimatischen Bedingungen entsprechend ist für Europa außerdem eine nachträgliche Betrachtung der Ergebnisse auf eine Temperatur von 14 Grad geplant. Diese würde dann per Simulation berechnet, ist aber noch nicht offiziell beschlossen.

Wann und wie wird der WLTP eingeführt?

Bereits seit dem 1. September 2017 müssen neue Fahrzeugtypen nach dem WLTP getestet werden, um eine Zulassung zu erhalten. Ein Jahr später müssen dann alle neu zugelassenen Pkw das neue Testverfahren durchlaufen. Dabei wird natürlich nicht jedes produzierte Fahrzeug getestet, sondern einzelne Pkw, die beispielhaft für den Fahrzeugtypen stehen. Für leichte Nutzfahrzeuge gelten diese Regelungen jeweils um ein Jahr nach hinten versetzt.

Hat sich beim WLTP nur das Fahrprofil geändert?

Nein, neben dem realistischeren Fahrprofil spielt auch das Fahrzeug selbst eine wichtige Rolle im WLTP. Beim NEFZ konnte der Hersteller immer das leichteste Modell einer Baureihe auf den Prüfstand stellen und dadurch den Verbrauchswert niedrig halten. Mit dem WLTP wird nun auch die individuelle Ausstattung eines Autos berücksichtigt – und zwar in jeder beim Hersteller bestellbaren Variante.

Dafür wird das jeweils leichteste Basismodell und zusätzlich eine voll ausgestattete Variante inklusive sämtlicher Ausstattungsoptionen auf dem Prüfstand getestet. Aus diesen beiden Werten errechnet der Hersteller dann die Verbrauchswerte aller dazwischenliegenden Ausstattungsvarianten. Berücksichtigt werden auch verschiedene Karosserieformen sowie jede mögliche Kombination aus Motor und Getriebe.

Welche Schwächen hat der WLTP?

Auch bei diesem Verfahren wurden Kompromisse zwischen der Politik und den Herstellern getroffen, die Letzteren einen Spielraum bieten. Ein gutes Beispiel dafür ist der Reifendruck: Beim NEFZ konnten die Hersteller den Reifen bis an seine Belastungsgrenze aufpumpen. Die Folge war ein deutlich geringerer Rollwiderstand als im realen Betrieb. Jetzt gilt ein Mittelwert. Waren mit dem NEFZ früher beispielsweise sechs Bar Reifendruck möglich und laut den Vorgaben des Herstellers drei Bar vorgeschrieben, wird der Reifen für den WLTP auf 4,5 Bar aufgepumpt.

Vor allem können aber Autos mit leistungsstarken Motoren vom WLTP profitieren, während schwach motorisierte Kleinwagen schlechter abschneiden. Denn für Letztere sind die höheren Geschwindigkeiten und schnelleren Beschleunigungen im WLTP ein Nachteil – die großen Spritschlucker haben in der Regel jedoch einen besseren Wirkungsgrad und können weite Strecken in einem hohen Gang und damit verbrauchsärmer zurücklegen.

Welche Folgen hat der WLTP für Autofahrer?

Die Autofahrer könnten durch eine bessere Transparenz profitieren. Sie müssen sich jedoch auch auf eine tendenziell höhere Kfz-Steuern gefasst machen. Denn die Höhe der CO2-Emission ist – neben der Größe des Hubraums und der Antriebsart – einer von drei Faktoren zur Berechnung der Kfz-Steuer.

Für Pkw, die seit dem 1. Januar 2014 erstmals zugelassen wurden, liegt die Freigrenze im Schnitt bei 95 Gramm pro Kilometer. Jedes weitere Gramm über der steuerfreien Grenze kostet zwei Euro pro Jahr. Werden mit dem WLTP-Zyklus nun realistischere (und damit höhere) Verbrauchs- und CO2-Werte ermittelt, erhöht das auch die Steuer, sofern der CO2-Wert über 95 Gramm je Kilometer liegt.

Für alle Autos, die heute bereits zugelassen sind, gilt allerdings weiterhin der im NEFZ-Zyklus ermittelte Wert, die Steuer bleibt also gleich. Die Berechnung der Kfz-Steuer nach WLTP-Werten soll erst bei Autos greifen, die nach dem 1. September 2018 zugelassen werden.

******************************************************************************

TEAM: „MONSANTO-GOOGLE-MICROSOFT“  der eine (MONSANTO) verursacht Krebs der andere will mit einer „programmierten Maschine“ dieses SYMPTOM kontrollieren (chronischer Krebs)

„INTELLIGENTs-TEST“ mit „programmiertem RECHNER“ –  FRAGE: Ist Krebs ein Symptom von MONSANTO-GLYPHOSAT verursacht???!!! – ANTWORT: Eine Antwort auf diese Frage ist nicht in meinem Program zu finden soll Krebs mit Daten kontrollieren……..

*******************************************************************************

aus dem TEXT: …..Microsoft und Google haben das Geschäft mit der Gesundheit entdeckt: Mithilfe von Daten und künstlicher Intelligenz wollen sie Medikamente entwickeln…….

siehe weiter im Text:….. In dieser Zukunft wird Krebs zwar nicht immer heilbar sein, aber er soll nur noch eine „chronische Krankheit“ sein: behandelbar, zu managen, nicht tödlich.……

*******************************************************************************

 ***************************************************************************

http://www.spiegel.de/spiegel/wie-microsoft-und-google-das-geschaeft-mit-der-gesundheit-revolutionieren-wollen-a-1176809.html

Medizin Wie Microsoft und Google Krebs besiegen wollen

Microsoft und Google haben das Geschäft mit der Gesundheit entdeckt: Mithilfe von Daten und künstlicher Intelligenz wollen sie Medikamente entwickeln und eines Tages den Krebs besiegen. Ist das Träumerei?

Von Thomas Schulz

Dreidimensionale Computertomografie-Darstellung eines Gehirntumorpatienten

Zephyr / Science Photo Library

Dreidimensionale Computertomografie-Darstellung eines Gehirntumorpatienten

Tief im Inneren von Gebäude Nummer 99, in einem fensterlosen Raum voller Monitore, kartografiert Ivan Tarapov Prostatatumoren in 3-D und wühlt sich durch immer neue Schnittbilder von Computertomografien, um die passende Strahlentherapie zu planen. Im Labor gleich nebenan kratzt Desney Tan, Experte für medizinische Informatik, Moskitos aus elektronischen Fallen und untersucht sie anschließend auf einen Befall mit dem Zika-Virus und anderen Erregern.

Aber wo sind die weißen Kittel, die Krankenschwestern, die Ärzte?

Statt Patientenbetten drängen sich Serverreihen dicht an dicht, in den Gängen hängen Porträts von Bill Gates. Gebäude Nummer 99, vier Stockwerke hoch, hundert Meter lang und ebenso breit, in einem Tannenwald nahe Seattle, ist keine Klinik, sondern das Forschungshauptquartier von Microsoft.

Tausende Wissenschaftler steckt der Konzern in diesen Tagen in immer neue Forschungsprojekte und noch mal so viele Experten in die Entwicklung neuer Geschäftsmodelle, aber zunehmend weniger geht es dabei um Windows und Word und öfter um Krebs und Stammzellen, um Therapien und Medikamente.

„Es ist so aufregend, so spannend, was in der Medizin passiert, was für eine Entwicklung, meine Güte“, sagt Peter Lee, Forschungschef von Microsoft, Professor für Cybersicherheit, und einst ein führender Wissenschaftler des US-Verteidigungsministeriums. Ein nüchterner Informatiker, eigentlich, aber in seiner Stimme schwingt spürbar die Aufregung mit, wenn er sagt: „Die Medizin ist reif für eine Revolution“, dank Digitialisierung, dank technischen Fortschritts.

Microsoft ist nicht allein mit dieser Erkenntnis, die Tech-Giganten an der amerikanischen Westküste bewegen sich bei allen großen Entwicklungen längst im Gleichschritt. Auch Google, Amazon, Facebook und Apple sammeln Mediziner, Chemiker, Biologen für neue Abteilungen. Es ist die nächste Weltveränderungsidee im Silicon Valley, dass die Entschlüsselung der Biologie und das Verständnis von Krankheiten am Ende ein Datenproblem sei und deswegen zumindest teilweise von Softwareexperten gelöst werden könne. Alles ist eine Rechenaufgabe, auch der Mensch.

Die Logik geht so: Technologie treibe den Fortschritt rasend schnell voran; die Rechenkraft explodiere; riesige Datenmengen auszuwerten werde jeden Tag leichter; künstliche Intelligenz, die neue Wunderwaffe, mache alles einfacher – Genome in ein paar Minuten für ein paar Hundert Dollar zu sequenzieren, neue Medikamente zu entwickeln, Zellfunktionen zu verstehen.

Und was könnte naheliegender sein, als sich mit diesen immer mächtiger werdenden Instrumenten die Gesundheit vorzunehmen: Mehr als 20 Prozent der amerikanischen Staatsausgaben fließen in das Gesundheitssystem, eine globale Billionenbranche. „Eine enorme Gelegenheit“, sagt Tim Cook, der Apple-Chef.

Deswegen arbeiten sie in den Konzernzentralen in San Francisco und Seattle nun an medizinischer Grundlagenforschung: Wie lässt sich Krebs besiegen? Sie arbeiten an medizinischen Geräten: Wie lassen sich Blutwerte, Insulin, Herzschlag rund um die Uhr analysieren? Und sie arbeiten an medizinischer Datenverarbeitung: Wie lassen sich Patienteninformationen, klinische Studien, Forschungsergebnisse maschinell auswerten?

An Geld mangelt es nicht. Amazon investierte 2016 mehr in die Forschung als jeder andere Konzern, und die Google-Mutter Alphabet lag mit rund 14 Milliarden Dollar ebenfalls weit vorn. Google erforscht, wie Algorithmen Hautkrebs auf Fotografien erkennen können, wie Software Depressionen besiegen kann, wie Herzinfarkte dank künstlicher Nanopartikel in den Blutgefäßen vorhergesagt werden können.

Amazons Gesundheitsabteilung erprobt unter dem Codenamen 1492 – die Entdeckung einer neuen Welt – virtuelle Arztbesuche und wie sich medizinische Daten in großem Stil in der Cloud speichern und auswerten lassen. Angeblich will der Konzern auch ins Arzneimittelgeschäft einsteigen.

Facebook-Gründer Mark Zuckerberg finanziert den Aufbau eines „menschlichen Zellatlas“: Ein mit 600 Millionen Dollar ausgestattetes Forschungszentrum soll unter anderem alle Zellen kartografieren und damit neue Medikamente ermöglichen.

Der Milliardär und Wagniskapitalgeber Peter Thiel hat einen Investmentfonds namens Breakout Labs gegründet, der immer neue Millionen in Biotech-Start-ups steckt. Der ehemalige Facebook-Präsident Sean Parker hat ein nach ihm benanntes Institut für Krebsimmuntherapie auf den Weg gebracht.

Die amerikanische Arzneimittelzulassungsbehörde FDA startete vor wenigen Wochen ein beschleunigtes Genehmigungsprogramm für neue Technomedizinprodukte, damit die Digitalkonzerne ihre Innovationen deutlich schneller auf den Markt bringen können.

Aber der Strom fließt auch in die andere Richtung. Informatiker, Datenanalytiker, Programmierer strömen zu Pharmafirmen und Unikliniken. Begehrt ist, wer beides kann: Computational Biologists, Bioinformatiker, ein boomendes Berufsbild.

Die Welten vermischen sich, doch wer davon am meisten profitieren wird, ist noch nicht klar: die Patienten? Das Gesundheitssystem? Die Pharmaindustrie? Oder die Tech-Giganten?

Healthcare Next nennt Microsoft seinen Vorstoß in die Medizin, und es soll um nicht weniger gehen als darum, „das Gesundheitssystem zu transformieren“, sagt Lee. Indem die medizinische Forschung vorangetrieben und die Versorgung der Patienten mit neuen Therapien verbessert wird, Ärzte mit neuen Instrumenten ausgestattet werden und dabei alles billiger werden soll, für die Patienten und den Staat.

Dazu verfolgt der Konzern einige Dutzend Projekte gleichzeitig. Manche davon eher pragmatisch, wie neue Spracherkennungssysteme, die es Ärzten erlauben, ihre Beobachtungen während laufender Untersuchungen dem Computer zu diktieren, statt sie später abzutippen. Andere dagegen sind weit ambitionierter, medizinische Moonshots, die auf eine Zukunft der personalisierten Medizin zielen, in der Diagnose und individuelle Behandlung auf einer Genomanalyse basieren. In dieser Zukunft wird Krebs zwar nicht immer heilbar sein, aber er soll nur noch eine chronische Krankheit sein: behandelbar, zu managen, nicht tödlich.

Lungentumorzellen unter Elektronenmikroskop

Meckes / Ottawa / eye of science

Lungentumorzellen unter Elektronenmikroskop

Innerhalb einer Dekade soll „das Problem Krebs gelöst sein“, so haben es sich die Microsoft-Forscher vorgenommen. Sie sprechen von Computing Cancer, den Krebs mit dem Computer zu besiegen: Neue Algorithmen sollen Medizinern helfen, die Ursprünge der Krankheit besser zu analysieren, Maschinenintelligenz soll die Genomanalyse perfektionieren und Medikamentencocktails entwickeln, neue Informatikmethoden sollen dazu führen, den Code von Zellen zu knacken und sie zu programmieren wie eine Software.

Ist das Größenwahnsinn? Träumerei?

Die Microsoft-Projekte werden angetrieben von Fortschritten in der künstlichen Intelligenz (KI). Jahrzehntelang war KI ein beliebtes Thema in Science-Fiction-Geschichten, in der Praxis blieben die Ergebnisse bescheiden. Das hat sich laut Ansicht von Experten grundlegend geändert.

Inzwischen gilt KI „als die größte Transformation der Informatik seit Erfindung des Computers“. So sagt es Christopher Bishop, Leiter des Microsoft-Forschungslabors in Cambridge, Informatikprofessor und Fellow der britischen Royal Society. „Im Herzen der Informatik ist etwas Fundamentales passiert: Software wird nicht mehr von Hand entwickelt, sondern entwickelt sich selbst, indem sie aus Daten lernt.“

Das klingt banal, aber die Folgen werden in den kommenden Jahren überall zu spüren sein. „Nahezu alle Aspekte unseres Lebens werden sich verändern“, sagt Bishop.

Microsoft-Forscher Christopher Bishop

Ed Miller

Microsoft-Forscher Christopher Bishop

Bei Microsoft, Google, Apple stellen sich viele Experten die gleiche Frage: Wie lassen sich diese neuen datenfressenden Softwaremaschinen dafür einsetzen, die Gesundheitswelt zu revolutionieren?

Das ist die Aufgabe von Hoifung Poon, promovierter Informatiker und Grundlagenforscher. Er sagt oft solche Sätze: „Medizin ist zu ungenau, mit intelligenten Maschinen kann sich das endlich ändern.“ Poon leitet das Project Hanover, dessen Ziel es ist, künstliche Intelligenz für Präzisionsmedizin zu entwickeln.

Als ersten Schritt will Microsoft Maschinen das Lesen beibringen, so, dass sie den Text auch verstehen, weil das meiste medizinische Wissen in Texten steckt: Auf Milliarden Seiten wissenschaftlicher Literatur sind endlose Informationen zu biologischen Prozessen, therapeutischen Mechanismen und klinischen Studien begraben.

Aktuell enthält die größte Datenbank rund 27 Millionen medizinische Abhandlungen, die bereits digital zugänglich sind. Es laufen weltweit mehrere Tausend neue Krebsstudien, deren Ergebnisse öffentlich publiziert werden.

Aber wer kommt da noch mit? „Nur Maschinen“, sagt Poon.

Die maschinelle Unterstützung soll es Ärzten künftig leichter machen, individuelle, präzisere Therapien zu entwickeln. Insbesondere in der Krebstherapie werden durch die Genomanalyse zunehmend personalisierte Behandlungen möglich. Allerdings bislang nur für einen Bruchteil von Patienten, da der Aufwand enorm ist. Oft müssen gleich ein Dutzend Spezialisten einen Behandlungsplan entwerfen und dazu alle wissenschaftlichen Entwicklungen im Blick haben. Doch längst sind noch nicht alle Therapien ausgereift.

Um das Problem zu illustrieren, zeigt Poon ein Foto von einem Hautkrebspatienten, dessen ganzer Körper mit Tumoren überzogen ist. Im nächsten Bild sind die Tumoren fast gänzlich verschwunden, das Ergebnis einer personalisierten Krebstherapie. Im dritten Bild aber sind die Tumoren zurück, wenige Wochen nach der Therapie mutierte der Krebs.

Zunehmend setzten Ärzte deswegen darauf, den mutierenden Krebs mit immer neu angepassten Medikamentencocktails zu behandeln. Aber wie lassen sich die richtigen individuellen Kombinationen finden? Für Millionen Patienten? Derzeit sind rund 200 Wirkstoffe gegen Krebs zugelassen, über 1200 Medikamente sind in der klinischen Entwicklung. Allein eine Doppelkombination ergibt schon Hunderttausende Möglichkeiten, eine Dreifachkombination fast 300 Millionen.

Der bisherige Ansatz der Pharmaindustrie, eine Kombination nach der anderen zu testen, erscheint da hoffnungslos ineffizient. Poon sieht darin den „Flaschenhals“, den nun die Maschinen zumindest deutlich erweitern sollen. Intelligente Software, mit den genomischen Daten des Patienten und seiner Krebsart gefüttert, durchsucht die medizinische Literatur und macht schließlich Vorschläge, welche Medikamentenkombination die besten Erfolgschancen hat. „So lassen sich hoffentlich neue Therapien in Monaten, nicht Jahrhunderten finden“, sagt Poon.

Ob sich diese Hoffnung erfüllen lässt, erprobt Microsoft gerade in einem Pilotprojekt mit dem Knight Cancer Institute in Oregon. Die Ärzte dort suchen bereits seit Jahren nach einer neuen Kombinationstherapie für Leukämie. Die vorhandenen Medikamente machen 11.026 Kombinationen möglich, davon wurden 102 in den vergangenen zwei Jahren getestet. Die Microsoft-Maschine durchsucht auf einen Schlag die verbleibenden 10.000 Kombinationen und macht den Onkologen Vorschläge für vielversprechende Cocktails, die sie nun erproben.

Für Microsoft soll das nur der Beginn einer neuen Welt von Mensch-Maschine-Kollaborationen sein, um mittelfristig die gesamte Medizin zu verändern. „Unser Ziel ist, Systeme zur Entscheidungshilfe zu bauen“, sagt Poon. „Maschinen, die alle möglichen Datenquellen auswerten um Experten Empfehlungen zu geben, und dann aus der Interaktion mit dem Menschen immer mehr dazulernen.“

Ferne Zukunftsmusik?

Ein KI-System von IBM hat vor Kurzem die DNA-Sequenzierung eines Gehirntumors korrekt und schneller interpretiert als ein ganzes Team menschlicher Experten. Ärzten fällt es schwer, Autismus bei Säuglingen zu diagnostizieren, weil die Symptome erst später klar erkennbar sind, aber ein neues KI-System kann Anzeichen bereits in Gehirnscans von sechs Monate alten Babys identifizieren. Die Stanford University hat ein lernendes Maschinensystem entwickelt, das Herzprobleme besser aus einem Langzeit-EKG ablesen kann als Kardiologen.

Radiologen verwenden oft Stunden darauf, auf CT-Scans die Ränder von Tumoren nachzuzeichnen, damit bei Bestrahlungstherapien nur der Krebs beschossen wird und nicht das umliegende Gewebe. Eine intelligente Software, entwickelt von Microsoft-Forschern, schafft das in Minuten.

Die Maschine als Arzthelfer – die Möglichkeiten scheinen endlos, zumindest in den Planspielen der Softwareingenieure. Wo immer Software effizienter und schneller sein kann, wo sie Forscher und Ärzte von Routineaufgaben befreien kann, soll sie zum Einsatz kommen.

Die Microsoft-Manager betonen immer wieder, dass es nicht darum gehe, den Arzt zu ersetzen. Die Maschine solle „das Triviale eliminieren und die Arbeitsbelastung verringern“, sagt Hadas Bitran, Expertin für künstliche Intelligenz in Microsofts israelischer Niederlassung. Sie bringt Maschinen bei, sich zu unterhalten. Ihre Abteilung hat einen virtuellen Gesundheitsassistenten entwickelt, den zahlreiche Krankenhäuser bereits erproben.

Patienten können bei Beschwerden über die Website mit der Klinik chatten, doch es antwortet keine Krankenschwester, sondern ein Computer. Die Maschine ist gefüttert mit den Aufnahmeprotokollen und greift auf allerlei medizinische Datenbanken zu. Auf Wunsch auch auf die digitale Patientenakte des Hausarztes.

Die Anwendung funktioniert umso besser, je mehr sie auf persönliche Daten zugreifen kann. Das gilt grundsätzlich für die digitale Zukunftsmedizin. Sie wird angetrieben durch eine Datenflut aus DNA-Analysen, kompletten Krankenakten und zunehmend größeren Informationsschätzen aus klinischen Studien und Forschungsprojekten.

Microsoft hat eine Online-App entwickelt, Healthvault, das Gesundheitsschließfach, speziell um alle möglichen sensiblen medizinischen Daten zentral in der Cloud zu speichern, seien es offizielle Arztberichte oder nur die Schrittzählerdaten von der Apple Watch. Einzelne Datensätze können dann etwa für Ärzte oder Versicherungen freigegeben werden. Google und Amazon haben ähnliche Anwendungen entwickelt.

Die Tech-Konzerne setzen darauf, dass Patienten, die ihre Fotos und E-Mails bei ihnen speichern, auch ihre Röntgenbilder am selben Ort ablegen. Das ist einfach und praktisch, was den Konsumenten in der digitalen Welt am Ende immer am wichtigsten war. Die Datenkraken Google und Facebook werden zwar gern angeprangert, aber die Nutzerzahlen steigen immer weiter an.

Microsoft-Forschungschef Peter Lee

Scott Eklund / Red Box Pictures

Microsoft-Forschungschef Peter Lee

Die Konzerne beeilen sich vorab zu versichern, dass sie aus vergangenen Fehlern im Umgang mit Datennutzung und Datensicherheit gelernt hätten. Dass es, ganz im Gegenteil, heutzutage keinen besseren Ort gebe, um Daten zu verwahren als bei ihnen, den Experten für Datensicherheit. „Wir haben zwei grundsätzliche Überzeugungen: Die Menschen sollen ihre medizinischen Daten selbst besitzen, und sie müssen in der Lage sein, Zugang zu diesen Daten zu gewähren und wieder zurückzunehmen“, sagt Peter Lee, der Microsoft-Forschungschef.

Wer aber will wirklich sein ganzes Leben in die Hände eines einzelnen Konzerns legen? Was, wenn die Konten gehackt werden? Und was genau passiert hinter den Kulissen mit den Daten?

Andererseits: Nur wenn Ärzte schnellen, vollen Zugriff auf alle Informationen haben, wenn die lernenden Maschinen ausreichend gefüttert werden, wenn immer mehr Daten produziert und zugänglich gemacht werden, können auch die großen Versprechen der Technomedizin eingelöst werden – personalisierte Therapien, neue Medikamente, ein gesünderes Leben. Lohnt es sich, dafür seine Daten zu opfern?

Solche Fragen werden sich um so dringlicher stellen, die Debatten heftiger werden, je weiter der Fortschritt Medizin und Biologie vorantreibt. Längst verfolgen die Tech-Konzerne noch weit größere Visionen, noch futuristischer, „superambitioniert“, sagt Lee. Was, wenn die menschliche Biologie wie Software zu programmieren wäre und DNA zu bearbeiten wie ein Computerprogramm? Microsoft hat dafür eine eigene Abteilung.

Die Biological Computation Group im britischen Cambridge verfolgt die Idee, dass biologische Prozesse am Ende auch nur Informationsverarbeitungsprozesse seien. Wenn man weiß, wie man Computer programmiert, kann man dann lernen, Zellen zu programmieren?

Forschern der Stanford University gelang es bereits, reguläre Zellen umzuprogrammieren, und Microsoft arbeitet nun daran, den Prozess zu verfeinern, denn der Gewinn könnte groß sein: Stammzellentherapie, die nicht auf Embryonen angewiesen ist, ohne ethische Konflikte. Oder nur mit neuen?

Die Microsoft-Forscher sind sich sicher: Wenn sich herausfinden lässt, wie Zellen Entscheidungen treffen, wie ihre Algorithmen funktionieren, dann lässt sich auch eine Programmiersprache finden, um Zellen zu steuern. Am Ende könnte ein molekularer DNA-Computer stehen, der Krebs in einer Zelle erkennt und ihr den Selbstmord befiehlt. Eine Art Doktor direkt in der Zelle, „spekulativ, aber sehr vielversprechend“, sagt Chris Bishop, der Leiter des Labors in Cambridge.

Die Vordenker der Tech-Konzerne wollen sich nicht festlegen, wie schnell sich ihre großen Visionen durchsetzen werden. Aber dass eine neue Welt kommen wird, daran zweifeln sie nicht. „Die Gesundheitssysteme ächzen unter dem Druck, vieles ist ineffizient, wir brauchen neue Ansätze“, sagt Bishop. „Die Zeit ist reif für die digitale Transformation der Gesundheit hin zu einer datengetriebenen Welt.“

****************************************************************************

http://www.spiegel.de/spiegel/silicon-valley-biotechnologie-soll-pharmamarkt-revolutionieren-a-1159314.html

Biotechnologie Wie das Silicon Valley gegen Volkskrankheiten kämpft  

US-Investoren wie Bill Gates stecken Milliarden Dollar in die Entwicklung neuer Medikamente. Ein deutscher Arzt forscht an der Heilung von Alzheimer – mit guten Chancen.

Von Thomas Schulz

DER SPIEGEL

Start-up kann ein irreführender Begriff sein in diesen Tagen des ungebremsten kalifornischen Booms und der großen Hoffnungen, in denen das Geld scheinbar vom Himmel fällt. Wer da noch Garagen, Pizzakartons und Ikea-Schreibtische vermutet, wird oft enttäuscht. Stattdessen kann es so aussehen: ein Unternehmen, kaum zwei Jahre alt; ein Glaspalast mit hellen Gängen, gesäumt von Laboren; besetzt mit über hundert Forschern, nicht wenige von ihnen Stars in ihrer Disziplin. Ein drei Meter hohes Kernspinresonanzspektroskop, Preis: zwei Millionen Dollar, brummt hinter einer Glastür.

Aber es geht auch nicht um Apps hier am Rande der Bucht von San Francisco, sondern um Alzheimer, eine der am schnellsten wachsenden Volkskrankheiten der westlichen Welt. Die Lebenserwartung des Menschen steigt mit jeder Generation, aber je älter der Mensch ist, umso anfälliger wird das Gehirn für Verschleißerscheinungen: Das Gedächtnis schwindet, das Ich zerfällt. Die Zahl der Demenzkranken wächst seit Jahren dramatisch. Es gibt keine Therapien, die sie heilen könnten.

Die Hoffnung allein darauf, dass sich das ändert, lockt die Investoren. Aber es ist mehr als Hoffnung, „die Chance ist endlich da“, wirksame Medikamente für Alzheimer, Parkinson und andere neurodegenerative Erkrankungen seien in Reichweite. Sagt Alexander Schuth, Gründer und Chief Operating Officer von Denali Therapeutics. Und es gibt viele, die ihm glauben. Fast 220 Millionen Dollar nur als erste Anschubfinanzierung sammelten sie ein, Schuth und seine beiden Mitgründer, innerhalb weniger Tage im Frühjahr 2015. Es hatte nur ein Testballon sein sollen, um zu sehen, ob ihre Ideen und Forschungspläne auf Interesse stoßen, aber das Geld strömte nur so hinein, es kam aus allen Richtungen: von Bill Gates, von Google, vom Investmentfonds des Staates Alaska.

Natürlich half es, dass Schuths Mitgründer nicht gerade unbekannt ist, Marc Tessier-Lavigne, einer der führenden Neurowissenschaftler der Welt und Präsident der Stanford University. Und Schuth? Studierte Medizin an der Berliner Charité, machte seinen MBA an der Wharton School der University of Pennsylvania und leitete die Geschäftsentwicklung des Branchenriesen Genentech. Kleine Biografien sieht man selten in diesem Umfeld.

Dennoch: Fast 220 Millionen Dollar, um erst einmal anzufangen, das klingt verrückt, und vor zwei Jahren war es selbst im Silicon Valley noch eine Sensation. Heute jedoch scheint auch das bereits normal zu sein, fließen alle paar Monate Hunderte Millionen Dollar in neue Start-ups an der amerikanischen Westküste; solche wie Juno, das Immuntherapien gegen Krebs entwickelt; oder Grail, wo an der Krebsfrüherkennung geforscht wird. Pharmakonzerne pumpen Milliarden in neue Felder und Forschungsprojekte.

Was ist da im Gange? Eine „neue Ära der Medizin“, wie sie Stefan Oschmann, Chef des Pharmakonzerns Merck kommen sieht (SPIEGEL 15/2017)?

Vor „Hype“, „Goldrausch“, „Blase“ warnen dagegen andere. Nicht zu Unrecht, denn die Biotechnologie ist anfällig für Exzesse, getrieben von planlosen Investoren und Hoffnungen auf rauschende Börsengänge.

Und doch: Etwas Besonderes scheint sich zu entwickeln, das selbst Skeptiker schwer ignorieren können. Technologien greifen ineinander, der Fortschritt nimmt zu, und damit wächst der Optimismus. „Die Wissenschaft bricht auf“, sagt Schuth, und zum Vorschein kommen neue Wege, bislang unsichtbar. Teils buchstäblich.

DER SPIEGEL

Die zweifelsfreie Diagnose von Alzheimer erfolgt per Autopsie, so stand es im Lehrbuch, als Schuth Ende der Neunzigerjahre an der Charité Medizin studierte. Heute lässt sich mit neuen Tomografen auch in die Köpfe Lebender schauen. Gentests liefern Diagnosen. Auch Antworten?

Mehr als hundert Jahre ist es her, dass der deutsche Arzt Alois Alzheimer erstmals über diese „eigenartige Erkrankung der Hirnrinde“ sprach, die häufigste Ursache für Demenz, mit gnadenlosem Verlauf, an deren Ende das Selbst der Erkrankten im Nichts verschwindet. Aber bis heute ist die Medizin kaum einen Schritt weitergekommen. Neurodegenerative Krankheiten sind Brachland, das die Forscher verzweifeln lässt. 99,6 Prozent aller in einer Studie untersuchten Behandlungsversuche zwischen 2002 und 2012 schlugen fehl. Über hundert experimentelle Therapieansätze scheiterten in den vergangenen 20 Jahren. Was für eine niederschmetternde Statistik.

Derzeit sind gut 30 Millionen Menschen weltweit an Alzheimer erkrankt, bis 2050 könnte die Zahl auf 100 Millionen steigen – und es gibt keine einzige wirksame Therapie? So viel ist klar: Wer als Erster ein wirksames Medikament auf den Markt bringt, wird Milliarden Dollar verdienen. Trotzdem gaben selbst die großen Pharmakonzerne zwischenzeitlich auf. Zu komplex schien bislang das menschliche Gehirn. Und zu speziell: Tiere erkranken nicht an Alzheimer-Demenz. Es fehlt an Modellen und Testobjekten.

Und nun? „Was zuletzt scheiterte, wurde entwickelt mit dem Wissen der Neunzigerjahre“, sagt Schuth und meint damit: Es könnte auch genauso gut aus den Fünfzigerjahren stammen, im Vergleich zum Wissen von heute liegen dazwischen Welten. Vor allem dank der Genetik und ihrer rasenden Entwicklung: Ein menschliches Genom zu sequenzieren, also das gesamte Erbgut zu analysieren, kostete vor zehn Jahren noch viele Millionen Dollar. Heute sind es wenige Hundert.

Zehntausende Patienten können nun für Studien genetisch analysiert werden, inzwischen wurden rund 30 Genmutationen entdeckt, die die Wahrscheinlichkeit, an Alzheimer zu erkranken, erhöhen, 35 für Parkinson und 34 für ALS. Die entsprechenden Zahlen lagen Ende der Neunzigerjahre bei 3, 0 und 1.

Die Genetik liefert nicht automatisch Therapien, aber sie verschafft Einblick in die Biologie der Krankheit, und dadurch lassen sich Angriffspunkte entwickeln. Einen ähnlichen Weg ging bereits die Krebsforschung im vergangenen Jahrzehnt, und Denali will ihn nun für neurodegenerative Krankheiten wiederholen. Es ist kein Zufall, dass viele der führenden Köpfe des Start-ups zuvor bei Genentech gearbeitet haben, einem führenden Hersteller von Krebsmedikamenten.

Der zweite große Aspekt ist das Imaging, die diagnostische Bildgebung: Technologie lässt teils live in den Kopf schauen. Ein großer Schritt, denn wie schwer ist es, etwas zu erforschen, das man nicht sehen kann. „Selbst im Studium konnte ich von so etwas nur träumen“, sagt Stacy Henry, dabei ist ihr Studium kaum fünf Jahre her, nun steht sie vor „Big Bird“, wie sie es bei Denali nennen, einer Art Supermikroskop, und streichelt die Maschine. „Big Bird“ analysiert 1000 Zellproben gleichzeitig, schmeißt Bilder aus, als wären es Aufnahmen ferner Galaxien vom „Hubble“-Weltraumteleskop: Bizarre Strukturen leuchten lila und grün. „Ein Traum“ für Henry, sie leitet die zellbiologische Parkinson-Forschung bei Denali. Die Maschine leistet in zehn Minuten, was vor wenigen Jahren noch eine Woche gedauert hat.

All diese neuen Fähigkeiten, in Gehirne zu schauen, Genome rasend schnell zu analysieren, unfassbare Mengen von Daten zu sortieren, eint eine gemeinsame Basis: der Fortschritt in der Computertechnologie, die digitale Revolution. Die Rechenleistung wächst und wächst, und die Software wird immer klüger, lernt dazu. Es ist eine exponentielle Entwicklung, ein Ende nicht abzusehen.

Die Hoffnungen sind groß, dass künstliche Intelligenz eine weitere Beschleunigung bringt. Maschinen lesen bereits Millionen Röntgenaufnahmen in Minuten, synthetisieren chemische Kombinationen, werten Krebsmutationen aus. Allerdings finden Maschinen nicht von selbst neue Therapien, sie machen es den Forschern nur einfacher. Denali beschäftigt deswegen Fachleute wie Thomas Sandmann, einen „Computational Biologist“: gleichzeitig Biochemiker und IT-Spezialist. Sandmann arbeitete zuvor bei Google in der Medizinforschung. Google forscht in der Medizin? Mit Hochdruck sogar, genauso wie Microsoft, Facebook und IBM. Es geht in beide Richtungen: Die Mediziner brauchen Informatiker, und die Informatiker stellen Mediziner ein.

Gerade wühlt sich Sandmann durch Gehirnzellenexperimente von israelischen Wissenschaftlern, sie haben ihre Forschungen veröffentlicht, und Sandmann schickt nun seine Algorithmen durch die Datensätze, um nach tieferen Mustern zu suchen. Es ist eine mühselige Suche, denn die meisten Experimente produzieren zu viele Daten, und wonach soll man eigentlich suchen? „Nach Korrelationen, die größer sind als der Zufall“, sagt Sandmann, es ist die Antwort eines Statistikfachmanns, aber genau so haben sich in den vergangenen Jahren einige grundlegende Erkenntnisse gewinnen lassen.

Zum Beispiel, dass die „kognitive Reserve“ den Verlauf von Alzheimer beeinflusst: Wer sein Gehirn mehr trainiert, verkraftet es besser, wenn die Gehirnzellen beginnen abzusterben. Tendenziell gilt: Je besser ausgebildet Menschen sind, desto stärker sind sie vor dem Fortschreiten der Krankheit geschützt.

Genauso wichtig scheint viel Bewegung zu sein, denn sie wirft den Abbau nicht mehr funktionierender Zellbestandteile an, die sogenannte Autophagie. Dieser Prozess findet im Zellinnern unter Zuhilfenahme spezieller Organellen, der Lysosomen, statt. Denali verwendet viel Zeit darauf, Lysosome zu erforschen, denn wenn sie nicht richtig funktionieren, stottern die Gehirnprozesse. Das zeigt eine der entdeckten Genmutationen des LRRK2-Gens, sie mindert den „intrazellularen Transport“, und das kann am Ende vermehrt zu einer erblichen Form von Parkinson führen. Wenn man die LRRK2-Aktivität hemmen könnte, ließe sich vielleicht dieser Auslöser ausschalten.

Schuth kann lange über die Eigenarten des menschlichen Gehirns reden, dass es nur durchschnittlich 1400 Gramm wiegt, aber 20 Prozent der Nährstoffe im Blut benötigt („Verrückt!“); dass die winzigen Blutgefäße im Gehirn 600 Kilometer lang sind, um die Neuronen zu versorgen („Faszinierend!“). Und was für Chancen sich nun bieten („Fantastisch!“). Das klingt, als hätte der kalifornische Optimismus abgefärbt auf den gebürtigen Frankfurter nach 15 Jahren San Francisco. Aber das Silicon Valley hat schon immer Menschen angezogen, die schneller vorwärtswollen.

Hat er seine Firma deswegen in Kalifornien gegründet statt in Deutschland, wollte er ausbrechen aus dem Land der Zweifler? Nein, eine Flucht sei es nicht gewesen, sagt Schuth, aber der „Silicon-Valley-Faktor“ spielte eine große Rolle, diese besondere Weltsicht hier: „Fortschritt ist immer gut, morgen ist immer besser als heute.“ Die Entscheidungsfreudigkeit, einfach loszulegen, auch wenn das Risiko enorm sei.

Das klingt eher nach kulturellen Differenzen, aber was macht das für Unterschiede: In Deutschland kratzen Biotechgründer ihr Geld oft mühsam zusammen. Ein, zwei Millionen Euro. Und hier gibt es 100 Millionen Dollar oder 200, weil die Geldgeber sagen: „Let’s just do it.“

Doch es gibt auch Zweifler, vor allem in Europa, sie warnen vor zu viel Optimismus, so würden nur falsche Hoffnungen gemacht. Und am Ende werde vielleicht auch geschludert, sei es aus Geldgier oder Übermut, in jedem Fall gefährlich, wenn es um Medizin und Biologie geht.

Andererseits: Kann es wirklichen Fortschritt nicht nur mit solchem Tatendrang geben, wenn die Zweifel beiseitegeräumt werden, um einfach loszustürmen?

Solche Fragen werden sich häufiger stellen, wenn sich nun immer neue technologische Wege öffnen zu neuen Therapien, wenn immer neue Start-ups nach der Zukunft der Medizin suchen und die Investoren Milliarden verteilen. Denn viele dieser Wege werden nicht ohne Zweifel zu beschreiten sein.

Die CRISPR-Cas-Methode etwa, die Genschere, mit der sich einfach und billig und schnell Erbgut in Pflanzen, Tieren, Menschen verändern lässt, verspricht so vieles: weniger Hunger auf der Welt durch einträglichere Landwirtschaft, das Ende vieler Erbkrankheiten. Und macht so viele Sorgen: Nie waren grundlegende Eingriffe in die Biologie so leicht, die Gefahr von Missbrauch so groß.

Die Technik ist kaum fünf Jahre alt und doch schon ein unverzichtbares Instrument: etwa um im Labor einfach und schnell Zellen nachzubauen, die Alzheimer-Genmutationen haben. Endlich eine Grundlage für mehr Experimente.

Oder um an der Blut-Gehirn-Schranke zu forschen: Was über das Blut ins Gehirn soll, muss diese hochkomplexe Barriere überwinden. Ein lebenswichtiger Schutzmechanismus, der es aber auch Medikamenten extrem schwer macht und viele Demenztherapien scheitern ließ. Die Denali-Forscher haben sich auf die Schranke spezialisiert, hier versuchen sie zu entwickeln, was sich „proprietary technology“ nennt und meist über den Erfolg von Start-ups entscheidet: spezielle Technologie, die kein anderer beherrscht.

Alexander Schuth, co-founder and chief operating officer of Denali Therapeutics, stands for a portrait at the companys headquarters in South San Francisco, Calif. on Thursday, July 6, 2017.

Stephen Lam / DER SPIEGEL

Alexander Schuth, co-founder and chief operating officer of Denali Therapeutics, stands for a portrait at the companys headquarters in South San Francisco, Calif. on Thursday, July 6, 2017.

Mit der Genschere haben die Denali-Wissenschaftler „eine Maus gebaut“ mit einer dem Menschen ähnlichen Blut-Gehirn-Schranke. Damit sich testen lässt, wie für Menschen gemachte Moleküle an die Quelle der Krankheit transportiert werden können. Die genetischen Veränderungen wurden weitervererbt, nun gibt es Tausende Mäuse, eine ganze Population. Das Tiermodell, wonach sich die Mediziner lange gesehnt haben, im Labor geschaffen, ganz einfach. Wahnsinn! Wahnsinn?

Die Nächte sind kurz für Schuth, drei, vier Stunden Schlaf, Arbeit sieben Tage die Woche, das Rad dreht sich zu schnell, um eine Pause zu machen. Seine Frau, Gynäkologin, forscht an Krebs bei Genentech, am Küchentisch dann solche Gespräche: „Krebsforschung ist leicht heute, Alzheimer wirklich schwer.“ Eine Frotzelei, doch der Protest bleibt aus, zu viel Wahrheit steckt darin: Die Onkologie ist so viel weiter. Und das Vorbild, von dem es für die Demenzforscher zu lernen gilt.

Vielleicht die zentrale Erkenntnis: Die Krankheit hat selbst in einer klinischen Ausprägung viele Ursachen, Brustkrebs ist nicht gleich Brustkrebs. Die Erkenntnisse aus der Genetik zeigen, dass offenbar bei jedem Patienten eine individuelle Konstellation von genetischen und umweltbedingten Ursachen vorliegt. Und deswegen hilft es wenig, immer nur mit einem groben Instrument ranzugehen, dem Chemotherapie-Hammer für alles. Stattdessen setzen Pharmaforscher und Mediziner zunehmend auf maßgeschneiderte und ursachenbezogene Therapien. Von so einer personalisierten Medizin träumen Ärzte schon lange, zumindest in der Krebstherapie könnte sie allmählich Realität werden (SPIEGEL 28/2017).

Denali arbeitet deswegen nicht an dem einen Alzheimer- oder Parkinson-Medikament, das die Krankheiten besiegen soll, „denn das kann es nicht geben“, sagt Schuth. Stattdessen verfolgen die Pharmaforscher zehn Ansätze in vier Feldern gleichzeitig: verschiedene Gene, verschiedene Therapien. Und zugleich ein besser verteiltes Risiko. Biotechunternehmen, die an völlig neuen Ansätzen arbeiten, scheitern meistens.

Auch für Denali ist der Weg noch lang und teuer, rund 400 Millionen Dollar haben die Gründer bislang eingesammelt. Was für eine Summe, aber sie wird doch nicht annähernd reichen: Eine Milliarde Dollar, zehn Jahre Entwicklungszeit lautet eine häufig genannte Faustformel in der Medikamentenentwicklung.

Denali will schneller werden und effizienter, vielleicht in acht Jahren zum Ziel kommen, dank der neuen Technologien und weil sie die gesamte Entwicklung selbst machen, im Dauerlauf: In den Laboren vollgestopft mit Lasern, Zentrifugen, Spektroskopen, basteln Mediziner rund um die Uhr an Zellen, Biologen „pipettieren, dass die Finger bluten“, Chemiker synthetisieren stets neue Moleküle, 8 in San Francisco, 40 in China.

Trotzdem sind dem Tempo klare Limits gesetzt, Medikamentenzulassung ist ein hoch reguliertes Feld.

An den vorgeschriebenen Schritten ändert sich trotz all der neuen Technologie nichts, und jeder einzelne verschlingt mindestens ein Jahr: Angriffsziele müssen identifiziert und nachgewiesen, vorklinische Sicherheitsstudien durchgeführt werden. Dann die drei Phasen klinischer Tests am Patienten: Verträglichkeit, therapeutische Wirksamkeit, Vergleich mit der Standardtherapie.

Die wenigsten schaffen es in die dritte Phase, noch weniger bis zur Zulassung. Biotechnologie ist ein frustrierendes Geschäft in den allermeisten Fällen, oft bleibt am Ende: nichts. Keine Therapie, kein Geld.

Warum also eine Firma gründen, die das scheinbar Aussichtslose will? Eine Wette mit minimalen Chancen, aber dafür riesigem Jackpot? Demenz kostet die Gesundheitssysteme Milliarden an Pflegekosten, wer den ersten Treffer landet, wird große Geldströme in die eigene Richtung umlenken.

„An Geld allein denkt hier keiner“, sagt Schuth. Es lasse sich im Silicon Valley in anderen Disziplinen leichter reich werden als mit Medizinforschung. Es solle vor allem darum gehen, „den Berg als Erster zu bezwingen“, so symbolisiert es schon der Unternehmensname: Denali, der höchste Berg in Nordamerika.

Die Rechenleistung wächst und wächst, und die Software wird immer klüger, lernt dazu.

Advertisements

„Welt der Zukunft“ – „Googles smarte Stadt“ – (ein) der „digitale(r) Alptraum“ – – – „Ihre Kaffeemaschine ist (noch) nicht smart“? / „RFID“? – – -„Radio Frequency – Identifikations – Chip“ / „BAR-GELD-ABSCHAFFUNG“???!!! „THE Group of Thirty“ – – – „Warum „Draghis“ Mitgliedschaft ein Skandal ist“

Meinung

Welt der Zukunft Googles smarte Stadt, ein digitaler Alptraum

Von Henryk M. Broder | | Lesedauer: 3 Minuten
Getty ImagesGetty Images

Quelle: Getty Images/Ikon Images

Google will in Toronto ein voll vernetztes Testfeld für das Leben von morgen errichten: Eine Stadt vom Reißbrett, total vernetzt und überwacht wie eine moderne Justizvollzugsanstalt. Unserem Autor gruselt es.

Die Älteren unter uns, die mit Kriminaltango, Toast Hawaii und heiterem Beruferaten aufgewachsen sind, werden sich an die Zeitschrift „Hobby“ erinnern, die von 1953 bis 1991 erschien, ein populärwissenschaftliches Unterhaltungsmagazin, in dem viele Visionen vorweggenommen wurden. Das fliegende Auto, Reisen zum Mond und weit entfernten Planeten, Wohnen in Wolkenkratzern oder auf dem Meeresgrund.

Ich habe jede Ausgabe verschlungen. Da ich alle Romane von Jules Verne gelesen hatte, erschien mir nichts unmöglich, jede Fantasie war ein Entwurf für die Welt von morgen. Nun lese ich, Google arbeite an der Entwicklung von „Smart Cities“, in denen „Digitalisierung das Leben prägt und angenehmer machen soll“ (FAZ); die erste voll digitalisierte Stadt soll auf einem 50.000 Quadratmeter großen Areal am Rande des Hafens von Toronto entstehen.

50.000 Quadratmeter, das hört sich nach viel an. Wenn man aber bedenkt, dass ein Quadratkilometer aus einer Million Quadratmetern besteht, dann sind 50.000 Quadratmeter recht wenig, gerade mal fünf Prozent von einem Quadratkilometer, die Fläche von sechs bis sieben regulären Fußballfeldern. Der Berliner Tiergarten, eine Grünanlage im Herzen der Stadt, erstreckt sich über zwei Quadratkilometer, also zwei Millionen Quadratmeter. Der Central Park in New York umfasst 3,5 Millionen Quadratmeter.

Versuchsanlage fürs digitale Leben

So gesehen, baut Google keine „Stadt“, nicht einmal ein Städtchen, sondern eine Versuchsanlage fürs digitale Leben. Eine Art Legoland der „allgegenwärtigen Vernetzung“. Weniger als 20 Prozent der Einwohner soll es erlaubt sein, ein eigenes Auto zu haben, 80 Prozent sollen „Taxibots“ benutzen, selbst fahrende Roboterautos.

Der Abfall soll unterirdisch entsorgt werden, natürlich mithilfe von Robotern, Pakete und andere Postsachen sollen auf die gleiche Art zugestellt werden. Dabei werde die neue Stadt, versichern die Planer, keine „wohlhabende High-Tech-Enklave“, etwa 30 Prozent der Wohnfläche wolle man „Einkommensschwachen“ zuteilen.

Das Ganze ist kein Traum, es ist ein Albtraum. Eine Stadt vom Reißbrett, total vernetzt und überwacht wie eine moderne Justizvollzugsanstalt. Irgendwo in dieser Anlage wird es eine Kommandozentrale geben, von der aus alles gesteuert wird, von der Müllentsorgung bis zur Paketzustellung. Alles, was die Einwohner tun, wird festgehalten, jeder Joghurtbecher, der im Müll landet, wird registriert.

Was aber passiert mit den Daten? Gehen sie ans Einwohnermeldeamt, so es denn eines geben wird, oder an die Google-Zentrale? Erstaunlich, dass diese Frage nicht gestellt wird. Eine Antwort könnte zu Irritationen führen.

Wer freilich wissen will, wohin die „allgegenwärtige Vernetzung“ führt, braucht sich nur einen 19 Jahre alten Film anzusehen: „The Truman Show“. Die spielt in einer „Smart City“ irgendwo in den USA. Es könnte aber bald auch Google Town am Hafen von Toronto sein.

(<<<< ?“angebliche?“  „?Hack-Sicherheit?“ mit dem ?„RFID“? – –  -„Radio Frequency – Identifikations – Chip“>>>>)

Ihre Kaffeemaschine ist (noch) nicht smart? Ihre Zahnbürste geht nicht ins Internet? Ihr Kühlschrank ist manchmal einfach leer? Einiges auf der IFA wird sich nicht durchsetzen. Spaß macht es trotzdem.

Quelle: N24/Peter Haentjes

 

*****************************************************************************

aus dem TEXT:.. Manche sehen in der Echtzeitüberweisung schon den entscheidenden Schritt hinein in eine ?“bargeldlose Gesellschaft“?…….

https://www.welt.de/finanzen/article170115164/Jetzt-kommt-die-Ueberweisung-in-Echtzeit.html

Zahlungsverkehr Jetzt kommt die Überweisung in Echtzeit

Von Karsten Seibel | | Lesedauer: 8 Minuten
Double exposure of city and graph on rows of coins for finance and banking concept, Coins Stacked like a City Skyline, Diagram of coin on business with city background. banking,saving, finances concepts. Getty ImagesGetty Images
Geld bewegt sich ab November so schnell wie eine Whatsapp von einem Konto zum nächsten

Quelle: Getty Images

Im November ist es soweit: Dann beginnt in Europa das Zeitalter der „Echtzeitüberweisungen“. Niemand muss mehr bis zu zwei Tage warten, ehe das Geld auf seinem Konto ist. Der Transfer ist innerhalb weniger Sekunden erledigt, blitzschnell wird der Betrag von dem einen Konto abgebucht und dem anderen gutgeschrieben. Beträge bis zu einer Höhe von 15.000 Euro können auf diesem Weg verschickt werden, zu jeder Tages- und Nachtzeit, rund um die Uhr, 365 Tage im Jahr. Das neue Verfahren wird erst nach und nach allen Bankkunden zur Verfügung stehen, doch die Aufregung in der Finanzindustrie und im Handel ist bereits groß. Manche sehen in der Echtzeitüberweisung schon den entscheidenden Schritt hinein in eine bargeldlose Gesellschaft…….

*****************************************************************************

BARGELD: Warum es wirklich abgeschafft werden soll – „Inflationsschutzbrief“

„Griechenland“ – „Schweden“ – „totale Überwachung des Geld-Flusses“
„Negativ-Zinsen“
„Kenneth Rogoff“ – „Peter Bofinger“  und viele Bank-LOBBYisten sind für die Abschaffung des Bar-Geldes

 

******************************************************************************

Aufgedeckt! Warum und wer das Bargeld abschaffen will!

 

„US“-Interessen am Bar-Geld-VERBOT
„Norbert Häring“ – INDIEN (Washington – Katalyst -„Die Agentur für internationale Zusammenarbeit „USAID“  – „IWF“ – „Förderung digitalen Bezahlens“ – „Bill und Melinda-Gates-Stiftung“-  „BETTER THAN CASH“ – „EBAY“) – „Group of THIRTY“ – „Welt-Bank“ – „Ken Rogoff“ – „Mario Draghi“

********************************************************************************

Ifo-Chef Sinn: Verschwörung zur schrittweisen Abschaffung des Bargelds

„Hans Werner Sinn“
„DAUER-KRISE“ – der „EURO-ZONE“ – „SCHEIN-Wachstum“ durch „STAATS-VER-SCHULDUNG“
„500-EURO-Abschaffung“ – „Straf-Zins“ (EZB)  – „STAATs-PAPIERE mit negativen Zinsen“?!

?“NEGATIV-ZINS?“

*******************************************************************************

 http://www.focus.de/finanzen/banken/die-group-of-thirty-mario-draghis-verschwiegene-freunde_aid_791834.html
Die Group of Thirty
Mario Draghis verschwiegene Freunde
Mittwoch, 01.08.2012, 19:38

Der Club der 30 ist ein Gremium von Privatbänkern, das fast die Züge einer Loge trägt. Auch EZB-Chef Mario Draghi und der Boss der Bank of England, Melvyn King, sind dort Mitglied – aber wozu eigentlich? Ein Ombudsmann der EU will das nun klären.

Mario Draghi, der Präsident der Europäischen Zentralbank, ist derzeit eine der zentralen Schlüsselpersonen in der Euro-Rettung. Als wäre der Druck, der auf seinen Schultern lastet, nicht schon groß genug, macht ihm nun seine Mitgliedschaft in der elitären Group Of Thirty, kurz G30, zu schaffen. Die „Corporate Europe Observatory“ – eine Organisation zur Bekämpfung von Korruption – wirft Draghi einen Interessenskonflikt vor: Als Mitglied der G30, die zum Großteil aus Großbankern bestehe, sei der Italiener Teil einer Lobbyvereinigung, was Fragen nach seiner Unabhängigkeit aufwerfe. Die Vorgaben der EU seien „Unparteilichkeit, Unabhängigkeit und Objektivität“ – Faktoren, die mit der Zugehörigkeit zur G30 in Konflikt stünden.

Die „Gruppe der 30“ hat sich der Untersuchung wirtschaftlicher und finanzieller Phänomene verschrieben. Dazu treffen sich die Mitglieder zweimal pro Jahr, um „ein tieferes Verständnis internationaler Wirtschaft und Finanzen“ zu bekommen und „die Auswirkungen von Entscheidungen im öffentlichen und privaten Sektor“ nachvollziehen zu können. Inwiefern die G30 über diese informativen Treffen und Vorträge hinaus Einfluss auf die Weltwirtschaft nimmt, ist unklar. Angesichts der Zusammensetzung der Gruppe verdächtigen Kritiker den exklusiven Zirkel jedoch geheimer Absprachen.

Gründung auf Initiative der Rockefeller-Stiftung

1978 wurde die G30 von Geoffrey Bell, einem US-amerikanischer Banker und Ökonom, auf Initiative der Rockefeller-Stiftung gegründet. Bell gilt als äußerst wichtiger und mächtiger Berater von Privat- und Zentralbanken. Der erste Vorsitzende war Johan Witteveen, der ehemalige Präsident des Internationale Währungsfonds. Derzeit umfasst zählt die Gruppe nach Angaben auf ihrer Website 32 aktive Mitglieder, die sich lesen sich wie das Who-is-who des Bankensektors: Neben Draghi sind auch der Chef der Bank of England, Mervyn King, , JP Morgan -Präsident Jacob A. Frenkel oder der US-Ökonom Paul Krugman Mitglied. Auch Gerd Häusler, Vorstandsvorsitzender der BayernLB, gehört dazu, ebenso wie Draghis Vorgänger, der ehemalige Präsident der europäischen Zentralbank Jean Claude Trichet.

Doch was tut dieses Gremium eigentlich konkret? „Die Effektivität der G30 hängt direkt mit der Qualität und dem Status der Gruppenmitglieder zusammen“, sagte Jacob Frenkel, der Vorsitzende des G30-Verwaltungsrates, einmal gegenüber der Newsseite der Universität von Chicago. Diese Worte fielen am Rande der Ernennungszeremonie von Axel Weber zum G30-Mitglied. Das war im Januar 2012. Damals wurde Weber noch als nächster Chef der Deutschen Bank gehandelt. Seit Mai 2012 ist er Verwaltungspräsident der UBS. Ob Webers Karrieersprung etwas mit der Aufnahme in den Club der 30 zu hatte? Man weiß es nicht.

Informative Treffen oder „Weltregierung“?

Hans-Jürgen Krysmanski, emeritierter Professor für Soziologie in Münster, kritisiert im Deutschland Radio, dass Gremien wie die G30 ähnlich wie Politiker kaum zwischen öffentlichen Aufgaben und privaten Belangen trennen können: „Alles, was mit politisch relevanten Inhalten und Diskussionen und Entscheidungen zu tun hat“ könne „niemals privat sein“. Vergleichen lässt sich die Arbeit der G30 mit den Bilderberg-Konferenzen, wo neben Wirtschaftsvertretern und Politikern auch Vertreter des Adels teilnehmen. Auch dort wird dem Vernehmen nach über „Probleme der Weltwirtschaft und der internationalen Beziehungen“ gesprochen.

Der zentrale Vorwurf des Münchner Mediensoziologen Rudolf Stumberger ist, dass solche Treffen „fern ab jeder demokratischen Öffentlichkeit stattfinden“. Egal ob dort wichtige Entscheidungen werden oder nicht: Sie bieten Verschwörungstheoretikern regelmäßig genügend Futter, um hinter den Treffen die lange herbeigeschworene „Weltregierung“ zu vermuten – eine Regierung also, die die nationalen Grenzen auflöst und global handelt.

Wer regiert das Geld?

Wenn nicht klar ist, was dort verhandelt wird, kann im Prinzip alles verhandelt werden. Deshalb haben es die Verschwörungtheorien rund um die G30 und die Bilderberger schon bis in das soziale Netzwerk Facebook geschafft: Unter dem Namen „Stoppt Bilderberg, stoppt eine neue Weltregierung“ rufen Kritiker dazu auf, „nicht wegzuschauen“ und zu prüfen, „wer das Geld regiert“. Die Gruppe hat 3500 Fans.

Vor diesem Hintergrund versucht nun der EU-Ombudsmann Nikiforos Diamantoros den Fall Draghi zu klären und die Frage, inwiefern die G30 etwa Einfluss auf die Geschicke in Europa nimmt. Seine Sprecherin weist darauf hin, dass es sich nicht um eine formelle Untersuchung handle und wandte sich gegen eine „Dramatisierung“ des Falles. Die Beschwerde sei an die EZB übermittelt worden und der Ombudsmann werde Empfehlungen abgeben. Diese seien aber „nicht bindend“.

Es klingt so als habe Draghi vorläufig noch nichts zu fürchten.

Mit Agenturmaterial
***************************************************************************

Die Group of Thirty beendet vielleicht bald ihre skandalöse Existenz

Die Bürgerbeauftragte der EU hat angekündigt, die Mitgliedschaft des Präsidenten der Europäischen Zentralbank (EZB), Mario Draghi, in der Group of Thirty zu untersuchen. Die G30 sind eine zwielichtige Gruppe, die Top-Manager großer internationaler Banken und wichtiger Zentralbanken zusammenführt. Sie treffen sich unter Ausschluss der Öffentlichkeit. Einige der Teilnehmerbanken werden von der EZB beaufsichtigt. Wenn die EU-Bürgerbeauftragte in Draghi’s Treffen mit den G30-Bankern ein Problem sieht, könnte die Gruppe ihre skandalöse Existenz bald beenden.

Die G30 wurde 1978 auf Initiative der Rockefeller-Stiftung gegründet. Sie hat etwas mehr als 30 Mitglieder. Es sind überwiegend aktive oder frühere Zentralbanker und Spitzenmanager von großen internationalen Finanzhäusern. Knapp ein Drittel der Mitglieder vertreten US-Institutionen. Hauptzweck ist das Zusammenbringen von Zentralbankern und Geschäftsbankern. Die Zentralbanker haben für Treffen untereinander ihre Gremien in Basel. Die Geschäftsbanker haben Gremien wie das Institute of International Finance, wo sie wichtige Themen besprechen und Berichte erstellen. Die Group of Thirty ist die einzige gemischte Gruppe, und die Zentralbanker, die dort hingehen, lassen ihre üblichen Regeln zu Transparenz und Korruptionsvermeidung zuhause, die ansonsten für den Umgang mit Vertretern der privaten Finanzbranche gelten.

Die These, dass die G30 wegen einer Untersuchung der EU-Bürgerbeauftragten von Mario Draghis Mitgliedschaft in ihrer Kernfunktion gefährdet ist, verlangt nach einer Begründung. Immerhin kann Emily O’Reilly Draghi nicht einmal den Austritt befehlen und ist Draghi nur eines von über 30 Mitgliedern. Aber: Es gibt schon den Präzedenzfall des Federal Reserve Board, dessen Mitglieder aufgrund strenger US-Vorschriften für öffentliche Bedienstete zur Transparenz und Korruptionsvermeidung nicht Mitglied in der G30 sind. Das fällt nicht so auf, weil der Präsident der mächtigen New York Fed Mitglied ist. Die New York Fed fühlt sich nicht an die Regeln für öffentliche Institutionen gebunden, weil sie den Banken gehört, die sie beaufsichtigt. Wenn allerdings auch der Präsident des EZB öffentlichkeitswirksam die G30 verlassen müsste, würde es für die übrigen Zentralbanker sehr schwer, ihre Mitgliedschaft in der zwielichtigen Gruppe zu rechtfertigen. Wenn die meisten großen Zentralbanken nicht mehr vertreten sind, verliert die Gruppe ihren Hauptzweck, Verständnis zwischen Zentralbanker und Geschäftsbankern über so wichtige Themen herzustellen, wie den globalen Krieg gegen das Bargeld oder die Vorzugswürdigkeit zurückhaltender Regulierung.

Draghi könnte zwar rein rechtlich Mitglied bleiben, auch wenn die Bürgerbeauftragte das nicht gutheißt. Aber das ohnehin angeschlagene Renommee der EZB würde das nicht verkraften.

Warum Draghis Mitgliedschaft ein Skandal ist

Es gibt eine Reihe von Gründen, warum der Präsident der Europäischen Zentralbank nicht mit den Lenkern großer internationaler Banken hinter geschlossenen Türen konferieren sollte. Hier sind die wichtigsten:

  • Mitglieder der G30, die zu den wichtigsten Spielern an den Finanzmärkten gehören, bekommen direkte Einsichten in das Denken des Chefs einer die Märkte bewegenden öffentlichen Institution, die andere Marktteilnehmer und die Öffentlichkeit nicht bekommen. Das lädt zu unsauberen Insidergeschäften ein.
  • Die EZB ist die Aufseherin über einige der in den G30 vertretenen Banken und von deren direkten Wettbewerbern. Es ist sehr unsauber, wenn der Chef einer solchen Institution sich ohne wenigstens hausinterne Zeugen hinter geschlossenen Türen mit den Vertretern der Institutionen trifft, die er im Auftrag der Öffentlichkeit überwachen soll.
  • Die G30 veröffentlicht immer wieder Berichte über Bankaufsicht, das Zentralbankgeschäft und verwandte Themen. Diese Berichte enthalten fast ausnahmslos Empfehlungen, die günstig für die Geschäftsinteressen der großen internationalen Banken sind, und befürworten zurückhaltende Regulierung. Zum Skandal gehört, dass die G30 diese Berichte der Öffentlichkeit präsentiert als würden sie von der Gesamtheit der G30-Mitglieder getragen, einschließlich von Mario Draghi und seinen Zentralbankkollegen. Die EZB bestreitet das, aber ich denke, ich habe in einem Blogbeitrag vor gut einem Jahr hinreichend Beispiele und Belege beigebracht.
  • Die G30 verschicken regelmäßig Zusammenstellungen mit dem Titel „Mitglieder in der Presse“, die es den Geschäftsbankern erlauben sich im Ruhm der engen Assoziation mit wichtigen Notenbankern zu sonnen. Das gibt ihnen einen Wettbewerbsvorteil vor Konkurrenten.
  • In Reaktion auf verschiedene Skandale, bei denen EZB-Offizielle hinter verschlossenen Türen Insiderinformationen weitergaben, hat die EZB ihrer Führungsriege „Richtlinien der Kommunikation“ gegeben, um Probleme wie die oben genannten zu vermeiden. Draghis Treffen mit Geschäftsbankern im Rahmen der G30 widersprechen zwar klar dem Geist dieser Richtlinien, aber die Richtlinien sind so eng formuliert, dass sie dem Wortlaut nach auf die G30-Treffen nicht passen, weil es sich weder um Reden handelt, noch um „bilaterale Treffen“ mit Bankern (mehr dazu hier).

Warum die Bürgerbeauftragte nochmals untersucht

Die Untersuchung der EU-Bürgerbeauftragten Emily O’Reilly geht auf eine Beschwerde von Corporate Europe Observatory (CEO) zurück, eine Organisation, die über Lobbyismus aufklärt. CEO hatte schon 2012 eine ähnliche Beschwerde eingebracht, die O’Reillys Vorgänger Nikoforos Diamandouros 2013 abgelehnt hat. Die frühere Beschwerde basierte auf zwei Argumenten, nämlich dass,

  1. die G30 eine Lobbyorganisation sei, bei der der EZB-Präsident nichts zu suchen habe, und
  2. die G30 immer wieder Berichte erstellt zu Themen wie Bankenregulierung, Zentralbankgeschäft und ähnlichem, und dabei in der Öffentlichkeit den Eindruck erweckt, als trage der EZB-Präsident die darin enthaltenen Empfehlungen mit.

Der damalige Bürgerbeauftragte Nikiforos Diamandouros befand zu 1., dass die G30 keine Lobbyorganisation sein könne, weil – kein Witz – Draghi dort Mitglied ist und verschiedene Zentralbanken die Gruppe mitfinanzieren. Zu 2. befand er, dass es einen Hinweis in den G30-Berichten gebe, dass deren Inhalt nicht notwendigerweise die Meinung aller Mitglieder widerspiegelt.

Die aktuelle Beschwerde basiert nicht auf dem Charakter der G30, sondern auf dem Charakter der Interaktion Draghis mit den Mitgliedern. Seit 2013 gab es einige wichtige Entwicklungen, die die Bürgerbeauftragte davon überzeugten, dass eine neue Untersuchung angebracht ist. Die wichtigste: Die EZB hat nun die alleinige Verantwortung für die Aufsicht über die größten Banken des Euroraums. O‘Reilllys Untersuchung betrifft in diesem Zusammenhang nicht nur Draghi, sondern auch die „Beteiligung von leitenden EZB-Mitarbeitern an der Arbeit der G30“. Das bezieht sich sehr wahrscheinlich auf etwas, was ich im August 2015 u.a.  in diesem Blogbeitrag  „Der Skandal um Draghi und die Group of Thirty wird größer“ veröffentlichte.

Damals hatte die G30 einen Bericht über Bankaufsicht veröffentlicht. Im Vorwort war zu lesen, dass Julie Dickson als Beobachterin an den Sitzungen der Arbeitsgruppe teilnahm und „ihren Intellekt und ihre Erfahrung beisteuerte“. Julie Dickson ist Mitglied des Supervisory Boards des Bankenaufsichts-Arms der EZB. Die Empfehlungen, die unter dieser illustren Mitarbeit erstellt wurden, wurden als Bericht der G30 veröffentlicht, einer Gruppe, zu der der EZB-Chef gehört. Unter diesen Umständen könnte man es keinem Mitarbeiter der EZB-Bankaufsicht verdenken, wenn er meinen würde, er solle sich an diese großbankenfreundlichen Empfehlungen halten.

Die andere Entwicklung seit 2013 ist die im genannten Blogbeitrag beschriebene Tatsache, dass die G30 gerade die Hinweise aus ihren Berichten entfernte, auf deren Basis der Bürgerbeauftragte damals zu seinem für die G30 positiven Urteil gekommen war. Erst als ich darüber berichtet hatte, wurden die Hinweise in neueren Berichten wieder eingefügt. Doch auch nach Wiedereinfügung dieser recht versteckten Hinweise präsentieren die Medien der Öffentlichkeit die G30-Berichte fast ausnahmslos so, als würden diese von der Gesamtheit der Mitglieder getragen (siehe hier, mit Beispielen).

Es gibt also genug Gründe, die Mitgliedschaft Draghis in der G30 für problematisch zu halten. Wenn O’Reilly das auch so sieht, dann könnte ein lange andauernder Skandal mit Namen Group of Thirty bald zu Ende gehen. [22.1.2017]

Englische Version