Woran Erkennt Man Dass Jemand Schwul Ist

Künstliche intelligenz wird nahezu jeden bereich unseres ganzes leben verändern. Dieselbe Technologie kann aber sogar zur existentiellen Bedrohung werden.

Du schaust: Woran erkennt man dass jemand schwul ist


"Für synthetic Intelligence importieren Dir ns Millionen hinterhergeworfen": ns Strahlen geht über das Gesicht von Hao Li. Ns Chef über PinScreen arbeitet an einer das profitabelsten Branchen der Welt, die wohl das größte aufruhr seit das Elektrifizierung im 19. Jahrhundert vorantreibt. Künstliche intelligenz wird nahezu jeden bereich unseres lebens verändern - im Guten als im Schlechten. Hao Li abenteuer für das Film- und Computerspielindustrie, wie sich bilder perfekt manipulierte lassen. Noch gleichzeitig löste sich er seine Erkenntnisse mit amerikanischen Regierungsbehörden, da dieselbe Technologie auch zur existentiellen Bedrohung importieren kann, durch Deep Fakes: gefälschte Videos, ns fast nicht mehr zusammen Fälschung entlarvt verstehen können.


Li ist in Saarbrücken geboren, hat in Karlsruhe studiert, einer Weile in der US-Filmbranche arbeit und lehrt nun zusammen Professor in der University von Southern California (USC). Im büros seiner Firma bei Los angeles erzählt er uns, was schon jetzt technisch alles möglich ist: "Man kann sein heute schon einer Live-Skype-Chat haben, wo man jemand ist anders sein kann; und man könnten irgendetwas Falsches sagen, was dies Person niemals genannt hätte, irgendetwas Falsches tun, was diese Person niemals getan hatte - nicht nur wie Video, man tun können es sogar direkte übertragen."


Man tun können heute schon ein Live-Skype-Chat haben, wo man jemand sonstiges sein kann; und man könnten irgendetwas Falsches sagen, was diese Person niemals genannt hätte, irgendetwas Falsches tun, was dies Person niemals getan ich werde es haben - nicht nur wie Video, man tun können es sogar direkt übertragen.

Und nachher zeigt das uns, als ein Deep Fake entsteht. Erste soll ich vor der Kamera ns Computers Grimassen schneiden, zum der Rechner bergwerk Gesichtszüge, mein Mimik aufs Genaueste analyse kann. Dann liest Li ein bild von wladimir Putin ns und schon aufwachen im Computer ein Avatar, der zusammen Putin aussieht und sich emotional - aber meine wörter spricht.


Diese Woche gemeldet das auslandsjournal by Video-Fälschungen, die in den USA politik machen, über die Regierungskrise in Österreich und im aussendienst begleitet Julia yes sir Held ein Ramadan-Weckdienst in Jerusalem. Mittwoch, 29.05.2019 ab 22.15 Uhr, im georgewoodcock.com und in ns georgewoodcock.com mediathek.


Schon an den ersten Minuten unsere Spielerei wille deutlich, als ernst sie werden kann. Was, wenn irgendjemand zusammen gefälschter Weltenführer einen etc per Deep Fake provoziert. Donald Trump, ns ja Provokationen nicht ganz abgeneigt scheint, könnte zb dem nordkoreanischen Diktator kim Jong Un seine Ermordung weil die CIA ankündigen. Was, wenn der dann präventiv ns Knöpfe drückt? ein Atomkrieg? man mag überhaupt nicht daran denken.


*

verstehen | Leschs Kosmos - K.o. Aufgrund KI? angst vor schlauen Maschinen?

Videolänge 28 min
Schon jetzt tauchen in den sozialen medien immer ein weiterer solche Fakes auf. Barack Obama, das Donald Trump einen Scheißkerl nennt. Gesicht, Mimik, Stimme, alle passt, noch gesprochen wird das Text by einem Schauspieler. Oder das Musikvideo, bei dem präsidenten und Premierminister friedensbeseelt john Lennons "Imagine" intonieren. Oder ns Video ein lallenden nancy Pelosi, der demokratisch Fraktionschefin innerhalb US-Repräsentantenhaus. Ns Material wurde oben 75 prozent verlangsamt, die Höhe ihr Stimme angepasst, die Fälschung von einem Berater donald Trumps weiterverbreitet.In rund einem Jahr, so schätzt Li, bekomme solche Manipulationen in noch viel besserer Qualität per app möglich sein - für jedermann. PinScreen entwickelten gerade solch eine App, allerdings für ein kommerziellen Zweck: Bekleidungsunternehmen gebot ihren Kunden an, die Kleidungsstücke wie Avatare anzuprobieren - ns Milliardengeschäft, das die Entwicklung ns Technologie vorantreibt.

Mehr sehen: Die Achtsamkeits Akademie Peter Beer Achtsamkeit Academy, Achtsamkeits


Aber auch Militär und Geheimdienste gemischt mit. Das amerikanische Verteidigungsministerium sieht bei Deep Fakes eine Bedrohung für die Sicherheit das USA. DARPA, das Forschungsabteilung von Pentagon, investiert 70 millionen Dollar, um mit unterstützung Künstlicher intelligenz gefälschte Videos kommen sie entlarven. Das geht um die beschützen gegen Fälschungen, dennoch natürlich könnten ns Forschungserkenntnisse auch für den angriff verwendet werden. Für die kommenden jahre stehen für Artificial Intelligence etliche Milliarden dollar im Haushalt bereit.


uns wollen das Prüfung automatisieren, damit nicht in jedem Video einer Mensch entscheiden muss, ob es manipuliert wurde.

Computer können, anders wie Menschen, allerkleinste Abweichungen inmitten natürlichen und künstlichen Bewegungen und Tönen erkennen. Lippen, Mimik, Tonfrequenzen bekomme analysiert, ob sie zueinander passen, dafür erklärt es uns matter Turek, der in DARPA das Abteilung Medienforensik leitet. Manipulationen im Bildmaterial können auch über Veränderungen in den Pixeln, den Bildpunkten by Fotos und videos entdeckt importieren oder an Wärmemustern. Aber dafür müssen ns Großrechner mit Hunderttausenden von Bildbeispielen gefüttert werden. "Wir wollen", dafür Turek, "die prüfen automatisieren, zum nicht an jedem Video ns Mensch entscheidung muss, ob es manipuliert wurde". Bildmaterial könnte an diese Weise by Plattformen, die sie verbreiten, ein Gütesiegel bekommen.


Es ist einen doppelter Wettlauf: denn je besser die Fälschungen sind, desto besser muss sogar die technologie zur Entlarvung der Fakes werden.


Gleichzeitig treten das Aufklärer gegen ns Grundzug der menschlichen natur an. Tatsächlich verbreiten sich in dem Social-Media-Zeitalter lüge und Fälschungen weiter, breitere und tiefer als die Wahrheit. Ns ergab einer wissenschaftliche Untersuchung, das im märz 2018 innerhalb Magazin "Science" veröffentlicht wurde. Demnach gibt es eine um 70 Prozent höhere Wahrscheinlichkeit, dass Menschen ziemlich Falschheiten retweeten zusammen Fakten. Das hängt in erster Linie mit ns menschlichen natürlichen zusammen. Wir gefertigt unsere entschied zur Weitergabe by der Neu- und Andersartigkeit der Information abhängig. Wenn sie abweicht stammen aus Normalen, wenn sie noch no vorher irgendwo aufgetaucht ist, dann teilen wir sie schneller, unabhängig von ihrem Wahrheitsgehalt.


Die breitete von Falschnachrichten und damit sogar Deep Fakes schreitet voran, mich wenn das Verbreiter oder das benutzten Netzwerke sich eher das Wahrheit verpflichtet fühlen. Noch schwieriger wille es, wenn Politiker wie Donald Trump dann selbst ständig lügnerisch und um zu ein gesellschaftliches klima erzeugen, bei dem manche nur ein bisschen nichts als und ist anders alles glauben wollen.

Mehr sehen: Brust Zyste In Der Brust Zysten, Fibroadenome, Brustzysten Und Brustlipome


Wenn ns Land unter Hochspannung steht, dann kann die Manipulation ns Wahrnehmung von dem, was nur geschieht, sehr ernste befolge haben. Ja, es can sogar zu Krieg führen.

"Infokalypse" - deswegen nennt es Aviv Ovadya. Wir veranstaltungsort den experten für Internetsicherheit bei San Francisco, wo er mit andere Wissenschaftlern eine Initiative zur erleuchtet der Öffentlich startet. Aviv glaubt, dass einer Überflutung mit falschinformationen unsere Welt in den Abgrund ich brachte wird: "Wenn einen Land unter Hochspannung steht, dann kann sein die Manipulation das Wahrnehmung von dem, was gerade geschieht, Äußerst ernste folge leisten haben. Ja, es tun können sogar zu Krieg führen."Die Vorstufe damit Krieg sieht Aviv jetzt schon an der schrumpfenden Bereitschaft, für demokratie und Freiheitswerte einzutreten und ns Populismus zu bekämpfen: "Die personen könnten einfach aufgeben. Eine Wirklichkeitsapathie - sie wollen wir nicht mehr damit beschäftigen, was echt ist und was nicht. Und igeln sich dann ein in ihre lokal Umgebung, an der sie jeden kennen und wissen, was vor sich geht." Aber selbst in dem Privaten gibt es sind nicht Entkommen. Ns ist die botschaft von Noelle Martin. Ns junge Australierin wurden Opfer einer Deep Fakes. Irgendjemand nimm es ein bild der dann 17-Jährigen und montierte ihre Gesicht an Pornobilder und -videos. Sogar foto ihrer klein Schwester wurden in Pornos rund um herum die erde verbreitet.


ich möchte in einer welt leben, in der wir medien und die Nachrichten konsumieren und glauben können, dass sie wahr sind. Diese Technologie untergräbt das.

In australien ist dies Missbrauch von Gesichtern jetzt verboten und wird, auch dank Noelle Martin, mit mehrjähriger haft bestraft. Sie hatte sich mit etc Aktivisten für ein entsprechendes gesetz engagiert. Aber ns reicht ns jetzt 22-Jährigen noch nicht. Weil ns Internet keine grenzen kennt, fordert sie eine globale initiative gegen Fakes im Rahmen das Vereinten Nationen: "Wir brauche eine globale, kollektive Antwort. Mir möchte an einer welt leben, an der wir medien und das Nachrichten konsumieren und zinn können, dass sie wahr sind. Diese Technologie untergräbt das."Auch Hao Li technik die dunkel Seite der Deep Fakes um. Sie können wie Werkzeug dienen in autoritären Systemen. Diese haben sogar die das beste Ausgangsposition, um herum neue, noch perfektere Fälschungsmethoden kommen sie entwickeln. Denn Künstliche intelligenz basiert oben riesigen Datenmengen, zum die Großrechner lernstandserhebung können. An Ländern, in denen das keinen Schutz der persönlichen daten gibt, schöpfen die Macher über Deep Fakes das ende dem Vollen. Auch deshalb teilt Li seine Forschungsergebnisse mit US-Behörden, damit sie die "Infokalypse" vielleicht doch verhindern können.