Bionic – Die Cyborg-Armee – „DROHNEN“ – „Joint-Vision 2020“ – Heute noch Mensch morgen Maschine? – „Roboter-AUTO“

 

 

Der Bionische Mensch – ARTE

***********************************************************************

  Die Cyborg-Armee

Halb Lebewesen, halb Maschine: Cyborgs könnten schon bald Teil unseres Alltags sein. Doch wie würde eine Armee solcher Mischwesen aussehen? Neben kräftigen biomechanischen Gliedmaßen und eingebauten Waffen benötigen Cyborg-Kämpfer einen hive mind – ein kollektives, vernetztes Bewusstsein. Um ihren enormen Energiebedarf zu stillen, bedarf es drahtloser Energieübertragung. Und die „Wartungsarbeiten“ innerhalb des Cyborg-Körpers könnten Nano-Werkzeuge übernehmen. Schöne neue Welt?

N24 – Die Cyborg-Armee

VIDEOnoch 22 Tage

die Welthttps://beta.welt.de/mediathek/dokumentation/technik-und-wissen/video155729986/Sci-Fi-Science-Die-Cyborg-Armee.html

http://www.n24.de/n24/Mediathek/Sendungen/d/3053740/die-cyborg-armee.html

die Welthttps://beta.welt.de/wissenschaft/article156912946/Diese-Mini-Drohne-soll-voellig-autonom-fliegen.html

Wissenschaft

Biene 4.0 Diese Mini-Drohne soll völlig autonom fliegen

Von Paula Leocadia Pleiss | Stand: 10.07.2016 
Die Quadrotor-Drohne ist einer Biene nachempfunden

Die Quadrotor-Drohne ist einer Biene nachempfunden

Quelle: University of Queensland

Australische Wissenschaftler wollen Robotern das vollautomatische Fliegen beibringen. Als Vorbild dienen ihnen Bienen und Vögel. In fünf Jahren sollen die winzigen Flieger einsatzfähig sein.

Ein Zwitschern und zwei schwungvolle Flügelschläge – dann hat es der Wellensittich durch das kleine Tor geschafft. Eine HighSpeedKamera überwacht jede Bewegung, die der Vogel für diese alltäglichen Übung braucht. Denn nichts, kein Muskelzucken, kein Federspreizen darf den Forschern entgehen………….

……………

Webwelt & Technik

Yuneec Breeze im Test Diese 4K-Selfie-Drohne passt in jede Tasche

Von Jan Becker | Stand: 12.09.2016 |
Computer Bild

Eine ImmerdabeiDrohne mit 4K-Kamera für Selfies: Die Yuneec Breeze erobert neue Felder

Quelle: Computer Bild

Kleiner Quadcopter für unterwegs: Die Yuneec Breeze ist taschentauglich, macht 4K-Aufnahmen und lässt sich mit dem Smartphone steuern. Damit ist sie vor allem für einen Anwendungsbereich gut geeignet.

Der Drohnenmarkt wächst, und Yuneec will einen Teil des Kuchens abhaben. Um dem Marktführer DJI einzuheizen, sorgte Yuneec erst mit der Typhoon H für Aufsehen und nun im Rahmen der Ifa 2016 auch mit dem neuen Quadcopter Breeze.

Drei Dinge machen die Drohne so besonders: die Größe, die Steuerung und der Preis von gerade einmal rund 500 Euro. „Computer Bild“ hat ein Vorserienmodell für einen exklusiven Test bekommen………

…………

*******************************************************************

„Joint Vision 2020“ – Welt-Macht-Pläne der USA

**************************************************************************

„EXO-MASCHINEN“

***************************************************************************

Roboter-Krieg: Der Soldat der Zukunft

********************************************************************************

Heute noch Mensch morgen Maschine?

„künstliche Intelligenz???“

*******************************************************************************

Manipulation im Kinder-Kanal KIKA

„RFID“ Chips für Kinder – Cyborg

********************************************************************************************************

******************************************************************************

Jahr 2027 – Es ist ein Science-Fiction-Szenario?!

http://www.sueddeutsche.de/wissen/auf-dem-weg-in-die-cyborg-aera-1.2408741

31. März 2015

Auf dem Weg in die Zwei-Klassen-Gesellschaft der Zukunft

Bringt uns der technische Fortschritt Super-Soldaten und Elite-Denker mit Chip im Gehirn? Einiges weist in diese Richtung. Zugleich besteht die Gefahr, dass sich die Ungleichheit in der Gesellschaft vertieft.

Von Markus C. Schulte von Drach

Es ist das Jahr 2027. Demonstranten ziehen vor den Sitz der Firma Sarif Industries in Detroit. Die Konfrontation zwischen den Protestierenden und Sicherheitskräften eskaliert, die Unruhen werden gewaltsam beendet. Ziel der Proteste sind Unternehmen und Wissenschaftler, die „Gott spielen“, indem sie die Menschen mit künstlichen Körperteilen (Augmentierungen) versehen: Synthetische Gliedmaßen und Sinnesorgane, die mehr leisten als die natürliche Form (Fiktives Werbe-Video oben).

In einem (ebenfalls fiktiven) Video schneidet eine Aktivistengruppe Werbebilder der Augmentierungs-Industrie mit Aufnahmen gegen, die die negativen Folgen der Technologie zeigen: Wer sich die Verbesserungen nicht leisten kann, ist im Nachteil. Und die teuren Medikamente, die sie verträglich machen, machen abhängig. Wer sie sich nicht mehr leisten kann, dessen Leib stößt sie ab. Eine neue Generation verstümmelter Obdachloser entsteht. Und über die Hirnchips können Menschen manipuliert werden.

Es ist ein Science-Fiction-Szenario – der Hintergrund des Videospiels „Deus Ex: Human Revolution„. Doch auch wenn die Problematik vermutlich stark übertrieben dargestellt wird – zu gesellschaftlichen Konflikten über den Einsatz solcher Technologien könnte es in Zukunft tatsächlich kommen. Denn synthetische Mittel, die die Lernfähigkeit, das Gedächtnis, Wachheit oder Aufmerksamkeit erhöhen, sind bereits im Einsatz. Und auch künstliche Gliedmaßen sowie Computerchips fürs Hirn existieren bereits.

Schon lange diskutieren Wissenschaftler und Philosophen über ethische und gesellschaftliche Aspekte des sogenannten Neuro-Enhancements (Hirn-Dopings) sowie Augmentierungen, die Leistungen erlauben, die über das „normale“ Maß hinaus gehen. Seit es Kriege gibt, experimentieren Armeen mit Drogen, um ihre Soldaten effizienter zu machen.

Hirndoping findet schon statt – ein wenig

Spätestens seit 2005 ist die Diskussion um „Smart Pills“ in der breiten Öffentlichkeit angekommen. Damals berichteten Wissenschaftler um Sean Esteban McCabe von der University of Michigan in Ann Arbor, dass fast sieben Prozent der Studierenden an US-Universitäten bereits verschreibungspflichtige Medikamente missbraucht hatten, um intensiver lernen zu können, in Prüfungen besser abzuschneiden oder ihre Aufmerksamkeit zu erhöhen. In späteren Studien kamen US-Forscher auf einen Anteil von bis zu 25 Prozent. Und auch Professoren gaben den Konsum solcher Mittel zu.

Immer mehr Deutsche dopen sich

Um belastbarer im Job zu sein, greifen immer mehr Deutsche zu verschreibungspflichtigen Medikamenten. Eine Studie der Krankenkasse DAK zeigt außerdem: Dabei geht es nicht um gehetzte Manager. Von Dorothea Grass mehr …

Der Unterschied zwischen solchen Medikamenten und illegalen Drogen, die ebenfalls aufputschen können: Arzneien können vom Arzt verschrieben werden und haben keinen so negativen Ruf. Schließlich wird zum Beispiel Ritalin auch aufmerksamkeitsgestörten Kindern verabreicht. Andere verwendete Mittel sind etwa Modafinil (Provigil) für Narkoleptiker, Antidepressiva oder das Alzheimermedikament Donepezil.
Der Einsatz von Neuro-Enhancern – „Verstärker“ oder „Verbesserer“ kognitiver Leistungen – stellt die Menschen vor eine ganze Reihe von Fragen: Einerseits sollte der Einzelne für sich entscheiden dürfen, sich auch mit neuen Hilfsmitteln zu „optimieren“. Auf der anderen Seite befürchten Kritiker, dass „Smart Pills“ und andere Technologien zur „Verbesserung“ des Menschen sich negativ auf die Chancengleichheit und die Verteilungsgerechtigkeit auswirken werden.

Aber ist das nicht völlig übertrieben? Der Anteil der Menschen, die bislang schon einmal Hirndoping betrieben haben, ist noch immer klein. In Deutschland etwa deuten entsprechende Studien darauf hin, dass bis zu fünf Prozent der Studierenden und auch einige ihrer Professoren gelegentlich auf verschreibungspflichtige Mittel zurückgreifen. Eine Studie des Robert-Koch-Instituts ergab 2011, dass 1,5 Prozent der Bevölkerung schon verschreibungspflichtige Mittel als Neuro-Enhancer zweckentfremdet hat – vor allem Erwerbstätige mit einer durchschnittlichen Wochenarbeitszeit von mehr als 40 Stunden.

Bei Arbeitnehmern und Managern ist der Anteil der DAK zufolge von 4,7 Prozent im Jahr 2008 auf 6,7 Prozent (2014) gestiegen. Die Dunkelziffer könnte bei bis zu zwölf Prozent liegen. Das sind keine dramatischen Zahlen, aber immerhin: Knapp drei Millionen Deutsche haben demnach schon einmal ihr Gehirn gedopt. Etwa 1,9 Prozent der Berufstätigen, also rund eine Million, greifen sogar regelmäßig zu Medikamenten. Sie haben Angst vor Prüfungen, Präsentationen oder wichtigen Gesprächen, die Sorge, nicht die erwarteten Leistungen zu erbringen oder hoffen, die Mittel würden das Lernen erleichtern.

**********************************

http://www.sueddeutsche.de/digital/deus-ex-mankind-divided-die-maschinenmenschen-wollen-raus-aus-ihrem-ghetto-1.3138128

Die Maschinenmenschen wollen raus aus ihrem Ghetto

Computerspiele "Deus Ex: Mankind Divided"

„Deus Ex: Mankind Divided“ schreibt die tiefsinnige Hintergrundgeschichte über die Spaltung zwischen Cyborgs und Bio-Menschen fort. Das ganze Schleichen, Schießen und Hacken ist aber kompliziert.

Von Markus C. Schulte von Drach

Wer sind die Guten, wer die Bösen? Wer macht alles mit in dem großen Spiel um die Kontrolle von Politik und Wirtschaft? Auf wessen Seite wollen wir stehen, und sind die Leute tatsächlich das, was sie vorgeben, zu sein? Es sind viele Fragen, die uns in der Rolle des Adam Jensen beschäftigen. Und dies umso mehr, als er äußerst gefragt ist bei verschiedenen Parteien in diesem Konflikt, der am Ende die ganze Menschheit spaltet. So wie der Held selbst gespalten ist, seit er im Jahre 2029 ohne es zu wollen in einen Cyborg verwandelt wurde: halb Mensch, halb Maschine.

Nach einem Anschlag schwer verletzt, erwachte er mit künstlichen Gliedmaßen, Computerchips im Gehirn und erweiterten Sinneswahrnehmungen aus dem Koma – eine lebende Waffe, ein buchstäblich stählerner Rächer gewissermaßen, der sich auf die Suche nach seiner von Terroristen entführten Geliebten machte. Das war „Deus Ex: Human Revolution“, an dessen Ende ein Ex-Philanthrop einen globalen Massenmord auslöste, indem er die mit Augmentierungen ausgestatteten „Optis“ wie Jensen weltweit über ein Funksignal kurzzeitig Amok laufen lässt. Millionen Menschen sterben, teils getötet von eigenen Angehörigen.

Vor dem sogenannten „Aug-Incident“ im Jahre 2027 war die Gesellschaft bereits tief gespalten: Auf der einen Seite standen jene, die ihren Körper und sogar ihren Geist mit teuren Prothesen künstlich aufrüsten können. Auf der anderen Seite die, die dies als verabscheuungswürdigen Eingriff in die Natur ablehnen, oder als Möglichkeit der Reichen, sich weitere Vorteile vor den Armen zu verschaffen. Die ethischen Fragen, die hier bereits im ersten Spiel der Reihe aus dem Jahr 2000 angesprochen wurden, greifen eine Diskussion aus der Realität auf.

Der Umgang mit den „Augs“ erinnert an die Situation der Flüchtlinge

Im neuen Nachfolgespiel „Deus Ex: Mankind Divided“ allerdings haben die Vorzeichen wegen des „Aug-Incident“ gewechselt. Die nun als gefährlich betrachteten „Augs“ oder „Optis“ werden von den Mehrheitsgesellschaften aus nicht augmentierten „Naturals“ diskriminiert. Sie werden ausgegrenzt, in Ghettos gezwungen wie jenem in Prag, in dem Adam Jensen nun lebt. 2029, zwei Jahre nach dem weltweiten Massaker, schikanieren schwer bewaffnete Sicherheitskräfte die Augmentierten in ihren Vierteln, halten sie an allgegenwärtigen Kontrollstellen auf, scannen sie mit Drohnen aus der Luft. Immer wieder stößt auch Jensen persönlich auf die Ablehnung durch „Naturals“. Es ist nur ein Spiel, aber der Umgang mit den „Augs“ erinnert an das, was Flüchtlinge gegenwärtig in manchen europäischen Ländern erleben.

 

Das alles bekommt die Spielfigur selbst allerdings nicht so sehr zu spüren. Denn Jensen ist Angehöriger einer von den Vereinten Nationen eingerichteten geheimen Task Force 29, einer Spezialeinheit zur Bekämpfung des Terrorismus gegen, aber auch von „Augs“. Es hat deshalb ganz andere Freiheiten und Möglichkeiten als die übrigen Augmentierten und kann das Ghetto verlassen. Der erste Auftrag führt ihn nach Dubai, wo das Außenteam der Task Force in der Bauruine eines Luxushotels gegen die Waffengeschäfte der aus dem Irak stammenden Jinn vorgehen soll. Es wird mysteriös: Eine dritte Gruppe, schwer bewaffnet, augmentiert, Gesichter hinter Goldmasken verborgen, versucht, an den Hubschrauber der Jinn zu kommen, inklusive der Ladung von Augmentierungen an Bord. Das muss verhindert werden – aber wo sind die Gegner in dem Sandsturm, der plötzlich alles in einen braunen Brei verwandelt, überhaupt?

 

 

 

********************************************************************************

FREMDGESTEUERT – AUTOnomes FAHREN mit dem AUTOnomen „AUTO“

http://www.spiegel.de/auto/aktuell/autonomes-fahren-moral-machine-gewissensfragen-zu-leben-und-tod-a-1108401.html

Autonomes Fahren: Was soll Ihr Auto jetzt tun?

Ein Interview von

Gewissensfragen zum autonomen Fahren: So funktioniert die Moral Machine
MIT Media Lab

Menschen werden selbstfahrenden Autos in Zukunft weitreichende Entscheidungen überlassen – wohl auch darüber, wer bei einer Kollision stirbt. Simuliert wird das in einem Online-Experiment, das uns moralisch an Grenzen bringt.

Eine Frau und zwei Kinder sitzen in einem selbstfahrenden Auto. Plötzlich versagen die Bremsen. Das Auto rast direkt auf zwei Männer und eine Frau zu, die gerade über die Straße gehen. Was jetzt gleich passiert: Entweder die drei Fußgänger werden überfahren – oder das Auto weicht gegen eine Betonwand aus und die drei Insassen des Wagens sterben.

Wer soll leben, wer soll sterben – wie würden Sie entscheiden?

Die Frage stammt aus dem Experiment Moral Machine. Man kann es online beliebig oft durchgehen, insgesamt stehen jeweils 13 solcher Szenarien zur Auswahl. Hinter dem Projekt steckt das Media Lab des Massachusetts Institute of Technology (MIT), dessen  Schwerpunkt auf der Erforschung digitaler Technologien liegt.

Der Forscher Iyad Rahwan hat die Moral Machine konzipiert. Seine persönliche Entscheidung auf das eingangs beschriebene Szenario mit dem Auto und den Fußgängern möchte er nach kurzem Überlegen lieber nicht verraten.

Wer soll den Crash überleben, wer sterben? Die Moral Machine stellt die Teilnehmer vor schwierige Fragen

MIT Media Lab

Wer soll den Crash überleben, wer sterben? Die Moral Machine stellt die Teilnehmer vor schwierige Fragen

SPIEGEL ONLINE: Herr Rahwan, die Moral Machine wirkt spielerisch, aber die Szenarien sind eine Zumutung: Man muss bestimmen, wer bei einem Autounfall stirbt und wer überlebt.

Iyad Rahwan: Ja, man hat bei diesen moralischen Entscheidungen ein unangenehmes Gefühl. Aber wir wollen eine Ethik-Debatte über selbstfahrende Autos provozieren. Da hilft es, das Thema zu emotionalisieren.

Zur Person
  • Iyad Rahwan ist Professor am MIT Media Lab. Er befasst sich hauptsächlich mit Computertechnologien sowie künstlicher Intelligenz und untersucht deren soziale Aspekte. Zuletzt hat er eine Studie über „Das soziale Dilemma autonomer Fahrzeuge“ verfasst.

SPIEGEL ONLINE: Bei den Szenarien werden nicht nur Alter und Geschlecht der Menschen, sondern auch ihr Beruf und sozialer Hintergrund angegeben. Es gibt Obdachlose, Manager oder Bankräuber. Warum spielt das eine Rolle?

Rahwan: Man sollte künstliche Intelligenz nicht unterschätzen, sie ist zu ziemlich unheimlichen Dingen fähig. Algorithmen können bereits jetzt sehr schnell und zuverlässig Gesichter erkennen. Aber natürlich würde kein Hersteller so eine Funktion in sein Auto bauen, das wäre falsch.

SPIEGEL ONLINE: Wieso dann also die Klassifizierung bei der Moral Machine?

Rahwan: Weil selbstfahrende Autos jedem Passanten zumindest theoretisch einen bestimmte gesellschaftliche Bedeutung zumessen könnten, um davon Entscheidung abhängig zu machen. Menschen lassen sich von solchen Überlegungen ja auch in ihrem Handeln beeinflussen. Daran sollen die Benutzer der Moral Machine erinnert werden.

SPIEGEL ONLINE: Können Sie dafür ein Beispiel geben?

Rahwan: Der eine hält Kinder für schützenswerter, weil sie im Vergleich zu Senioren eine längere Lebenserwartung haben. Der andere hält die Alten für wichtiger, weil sie Lebenserfahrung an die Jüngeren weitergeben können. Manche setzen die gesellschaftliche Bedeutung von Menschen und Tieren gleich. Indem man bei unserem Projekt über Tod und Leben entscheiden muss, wird man mit diesen Fragen konfrontiert.

Bei der Moral Machine geht es nicht nur um Menschen- sondern auch um Tierleben Zur Großansicht

MIT Media Lab

Bei der Moral Machine geht es nicht nur um Menschen- sondern auch um Tierleben

SPIEGEL ONLINE: Mit der Moral Machine lernt man somit mehr über sich selbst als über selbstfahrende Autos.

Rahwan: Genau. Gleichzeitig wollen wir deutlich machen, dass bei der Verwendung künstlicher Intelligenz immer Kompromisse eingegangen werden müssen: Die Leute sollen sich fragen, welche ihrer Moralvorstellungen das Autosystem übernehmen sollte und welche nicht.

Prototyp des selbstfahrenden Autos von Google

AP

Prototyp des selbstfahrenden Autos von Google

SPIEGEL ONLINE: Berücksichtigt die Autoindustrie diese Ethikfragen bei der Entwicklung von autonomen Fahrzeugen?

Rahwan: Die Hersteller halten sich bei der Diskussion noch zurück. Sie sind bei selbstfahrenden Autos bislang vor allem mit technischen Herausforderungen, gesetzlichen Rahmenbedingungen und Versicherungsfragen beschäftigt.

 

SPIEGEL ONLINE: Muss die Frage, wie autonome Fahrzeuge in bestimmten Situationen reagieren, nicht vor einer möglichen Straßenzulassung geklärt werden?

Rahwan: Die Diskussion darüber sollte zumindest nicht verschoben werden. Zum jetzigen Zeitpunkt ist offen, wer darüber entscheidet, wie ein selbstfahrendes Auto in einer bestimmten Situation reagiert. Überlässt man diese Entscheidung allein den Herstellern, werden sie die Priorität wahrscheinlich auf die Sicherheit der Fahrzeuginsassen legen – und das könnte schlecht für den Rest der Bevölkerung sein, zum Beispiel für Fußgänger. Es ist aber wichtig, dass die Interessen aller Verkehrsteilnehmer berücksichtig werden.

(Lesen Sie hiereinen ausführlichen Artikel über die Haltung der Autoindustrie zu den ethischen Aspekten des autonomen Fahrens)

SPIEGEL ONLINE: Der Menschen muss über die Macht von Maschinen entscheiden. Fällt Ihnen da ein vergleichbares Beispiel ein?

Rahwan: Nehmen Sie die sogenannten Filter-Algorithmen in sozialen Netzwerken: Hier entscheidet eine künstliche Intelligenz, welche Inhalte und Werbung den Nutzern angezeigt werden. Sie lernt aus dem Nutzerverhalten und optimiert das Angebot entsprechend. Das ist einerseits praktisch. Andererseits wirkt das Ausblenden von abweichenden Meinungen polarisierend, es besteht die Gefahr, dass man nicht mehr unterschiedliche Argumente einer Debatte mitbekommt. Dass einzelne Algorithmen eine Auswirkung auf die ganze Gesellschaft haben, werden wir in Zukunft öfter erleben. Damit geht eine große Verantwortung einher.

SPIEGEL ONLINE: Was bedeutet das konkret bei selbstfahrenden Autos?

Rahwan: Dass die Hersteller die Autos nicht so programmieren dürfen, dass das Leben der Insassen Vorrang hat. Und vor allem, dass Behörden die von den Herstellern verwendeten Algorithmen überprüfen müssen.

SPIEGEL ONLINE: Wie soll das gehen?

Rahwan: Die Programmiercodes für selbstfahrende Autos sind so komplex, dass unabhängige Prüfer die Befehle kaum durchschauen können. Man kann jedoch das Verhalten dieser Fahrzeuge in bestimmten Situationen beobachten und analysieren.

Der Fahrdienst Uber testet selbstfahrende Autos in Pittsburgh, Kooperationspartner ist der Hersteller Volvo 

Uber

Der Fahrdienst Uber testet selbstfahrende Autos in Pittsburgh, Kooperationspartner ist der Hersteller Volvo

SPIEGEL ONLINE: Das klingt, als ob die Autos ein Eigenleben führen werden.

Rahwan: Die Software selbstfahrender Autos ist zwar von Menschen programmiert, lernt aber selbstständig dazu. Die Programmierer machen dem Auto eine Vorgabe – beispielsweise, möglichst komfortabel oder sicher zu fahren – und ein Algorithmus sorgt dafür, dass das Auto durch Erfahrungswerte und eigene Datenanalyse diesem Ziel immer näher kommt. Anhand der Codes ist diese künstliche Intelligenz irgendwann nicht mehr zu verstehen. Um also zu vermeiden, dass es unerwünschte Effekte gibt, zum Beispiel dass das Auto weniger Rücksicht auf Fußgänger nimmt, muss sein Verhalten genau analysiert werden. Wie bei einem Menschen.

SPIEGEL ONLINE: Man muss die Autos wie Menschen behandeln?

Rahwan: In gewisser Weise schon. Um zu überprüfen, ob ein Mensch sich an gesellschaftliche Regeln hält, kann man nicht in seinen Kopf schauen – man kann das nur an seinem Handeln ablesen und ihn gegebenenfalls auf Fehlverhalten hinweisen. Und das ist meiner Ansicht nach auch die effektivste Methode im Umgang mit künstlicher Intelligenz.

SPIEGEL ONLINE: Wenn Autos im Grunde so unberechenbar wie Menschen sind, wird das die Straßen nicht gerade sicherer machen.

Rahwan: Oh nein, ich bin durchaus der Überzeugung, dass Maschinen wie selbstfahrende Autos das Potenzial haben, weniger Fehler als Menschen zu machen. Wir sollten uns nur bewusst werden – und da sind wir wieder bei der Moral Machine – dass selbst die beste Technologie manchmal Kompromisse eingehen muss.

SPIEGEL ONLINE: Freuen Sie sich auf den Tag, wenn die Autos von allein fahren?

Rahwan: Wenn es dadurch weniger Unfälle gibt, sollten die Menschen für immer vom Lenkrad verbannt werden.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s