FACEBOOK SCHONT DEN MENSCHEN, INDEM ES MIT AI - TECHCRUNCH OFFENSIVE FOTOS KÄMPFT - SOZIALEN MEDIEN - 2019

Anonim

Facebooks Künstliche-Intelligenz-Systeme melden jetzt mehr beleidigende Fotos als Menschen, was einen wichtigen Meilenstein im Kampf gegen Missbrauch darstellt, sagt das Unternehmen. AI könnte obszöne Inhalte unter Quarantäne stellen, bevor es die Psyche echter Menschen verletzt.

Der Erfolg von Facebook in Anzeigen hat Investitionen in die Wissenschaft der KI und der maschinellen Bildverarbeitung vorangetrieben, die einen Vorteil darin haben könnten, anstößige Inhalte zu stoppen. Die Schaffung eines zivilen Ortes, an dem man ohne Angst vor Mobbing teilhaben kann, ist entscheidend, um Nutzer dazu zu bringen, ihre persönlichen Inhalte zu posten, die die Aufmerksamkeit von Freunden auf sich ziehen.

Twitter wurde vielfach dafür kritisiert, Behauptungen über Belästigung auf seiner Plattform nicht adäquat zu verhindern oder darauf zu reagieren, und im vergangenen Jahr gab der frühere CEO Dick Costolo zu, dass "es uns missfällt, mit Missbrauch umzugehen". Twitter hat noch keinen Profit gemacht und verfügt nicht über die Ressourcen, um mit den Investitionen von Facebook in KI mitzuhalten, hat aber immer noch eine mutige Anstrengung unternommen.

Um den Kampf anzukurbeln, erwarb Twitter ein Visual-Intelligence-Startup namens Madbits und Whetlab, ein Startup-Unternehmen für Neuronale Netzwerke. Zusammen, ihre KI kann anstößige Bilder identifizieren und nur harmlose Bilder nur als 7 Prozent der Zeit vor einem Jahr gekennzeichnet, nach Wired. Dies reduziert die Anzahl der Menschen, die für den harten Job benötigt werden, obwohl Twitter immer noch einen Menschen benötigt, um grünes Licht zu geben, bevor er ein Konto für anstößige Bilder aussetzt.

Facebook zeigt seine KI-Vision-Technologien

Ein brutaler Job

Wenn böswillige Nutzer etwas hochladen, das beleidigend ist, um Menschen zu quälen oder zu stören, muss sie traditionell von mindestens einem Menschen, einem Nutzer oder einem bezahlten Mitarbeiter, gesehen und gekennzeichnet werden. Diese beleidigenden Beiträge, die gegen die Nutzungsbedingungen von Facebook oder Twitter verstoßen, können Inhalte enthalten, die Hassreden, Drohungen oder pornografische Inhalte enthalten. regt Gewalt an; oder enthält Nacktheit oder grafische oder grundlose Gewalt.

Zum Beispiel könnte ein Mobber, ein Ex-Liebhaber, ein Stalker, ein Terrorist oder ein Troll beleidigende Fotos an die Wand, eine Gruppe, ein Event oder den Feed einer Person senden. Sie könnten Rachepornos, eklige blutige Bilder oder sexistische oder rassistische Meme hochladen. Zu dem Zeitpunkt, an dem jemand den Inhalt als anstößig markiert, Facebook also überprüft und es möglicherweise abbaut, ist der Schaden teilweise behoben.

Zuvor hatten sich Twitter und Facebook auf externe Auftragnehmer von Startups wie CrowdFlower oder Unternehmen auf den Philippinen verlassen. Ab 2014 berichtete Wired, dass Schätzungen zufolge die Anzahl der Moderatoren für den menschlichen Inhalt bei etwa 100.000 liegt, wobei viele mickrige Gehälter von etwa 500 US-Dollar pro Monat zahlen.

Die Besetzung ist fürchterlich schrecklich, psychisch verletzt Arbeiter, die durch die Tiefen der Verdorbenheit, von Kinderpornografie zu Enthauptungen durchkämmen müssen. Burnout passiert schnell, Arbeiter zitieren Symptome ähnlich der posttraumatischen Belastungsstörung und ganze Gesundheitsberatungen wie Workplace Wellbeing sind aufgetaucht, um vernarbte Moderatoren zu unterstützen.

Facebook's Joaquin Candela präsentiert auf AI auf der EMTech Digital Konferenz des MIT Technology Review

Aber KI hilft Facebook, die Menschen nicht so einer schrecklichen Arbeit auszusetzen. Anstatt Auftragnehmer zu einer ersten Verteidigungslinie zu machen oder auf eine reaktive Moderation zurückzugreifen, bei der ahnungslose Benutzer zuerst ein anstößiges Bild markieren müssen, kann die KI die aktive Moderation im Maßstab aktivieren, indem Computer jedes hochgeladene Bild scannen, bevor es jemand sieht.

Heute haben wir mehr offensive Fotos, die von AI-Algorithmen gemeldet werden als von Menschen. Facebooks Joaquin Candela

Nach seinem jüngsten Vortrag auf der EmTech Digital-Konferenz des MIT Technology Review in San Francisco habe ich mich mit dem Direktor für Technik für angewandtes maschinelles Lernen Joaquin Candela von Facebook zusammengesetzt.

Er sprach über den praktischen Nutzen von KI für Facebook, wo 25 Prozent der Ingenieure jetzt regelmäßig ihre interne KI-Plattform nutzen, um Features zu erstellen und Geschäfte zu machen. Mit 40 Petaflops Rechenleistung analysiert Facebook Billionen von Datenproben entlang Milliarden von Parametern. Diese KI hilft beim Einordnen von Newsfeed-Stories, beim Lesen von Inhalten von Fotos für Sehbehinderte und beim automatischen Erstellen von Closed Captions für Videoanzeigen, die die Anzeigedauer um 12 Prozent erhöhen.

Facebooks Joaquin Candela zeigt einen Forschungsprototyp zum AI-Tagging von Freunden in Videos

Candela enthüllt, dass Facebook sich in der Forschungsphase befindet, um mit AI die Gesichter in Videos automatisch zu taggen und eine Option, mit der man schnell vorspulen kann, wenn eine getaggte Person im Video erscheint. Facebook hat auch ein System zur Kategorisierung von Videos nach Themen erstellt. Candela demonstrierte ein Tool auf der Bühne, das Videosammlungen nach Kategorien wie Katzen, Essen oder Feuerwerk zeigen konnte.

Aber eine vielversprechende Anwendung von KI ist die Rettung von Menschen vor schrecklichen Inhalten Moderation Jobs. Candela sagte mir: "Eine Sache, die interessant ist, ist, dass heute mehr offensive Fotos von KI-Algorithmen gemeldet werden als von Menschen. Je höher wir das auf 100 Prozent drücken, desto weniger beleidigende Fotos wurden tatsächlich von einem Menschen gesehen."

Facebook, Twitter und andere müssen gleichzeitig sicherstellen, dass ihre automatisierten Systeme nicht zur drakonischen Gedankenpolizei werden. Falsch gebaut oder mit übermäßig konservativen Regeln gelehrt, könnte KI Kunst und freien Ausdruck zensieren, die produktiv oder schön sein könnten, selbst wenn es umstritten ist. Und wie bei den meisten Formen der KI könnte es Arbeitsplätze von Menschen in Not aufnehmen.

Den Schild teilen

Facebook zu verteidigen ist eine enorme Aufgabe. Nach seinem eigenen Vortrag bei der Applied AI Konferenz in San Francisco sprach ich mit Facebooks Director of Core Machine Learning Hussein Mehanna über Facebooks künstliche Intelligenzplattform Facebook Learner.

Mehanna erzählt mir, dass jede Minute 400.000 neue Posts auf Facebook veröffentlicht werden und 180 Millionen Kommentare auf öffentlichen Posts von Prominenten und Marken hinterlassen werden. Deshalb sagt Mehanna, dass Facebook versucht, die Bedeutung von Text zu verstehen, der auf der Plattform geteilt wird.

AI könnte eventuell Facebook helfen, Hassreden zu bekämpfen. Heute stimmte Facebook zusammen mit Twitter, YouTube und Microsoft neuen Hassredenregeln zu. Sie werden daran arbeiten, Hassreden innerhalb von 24 Stunden zu entfernen, wenn sie gegen eine einheitliche Definition für alle EU-Länder verstoßen. Dieses Zeitlimit scheint viel praktikabler zu sein, wenn Computer die Anstrengung schultern.

Facebooks Hussein Mehanna spricht auf der Applied AI-Konferenz

Die gleiche AI-Plattform könnte mehr als nur Facebook schützen und mehr als nur problematische Bilder vereiteln.

"Instagram ist ganz oben auf der Plattform. Ich habe gehört, dass sie es sehr mögen", erzählt Mehanna. "WhatsApp nutzt Teile der Plattform

.

Oculus nutzt einige Aspekte der Plattform. "

Die Bewerbung für Content-Moderation auf Instagram ist offensichtlich, obwohl WhatsApp eine enorme Menge an Bildern auch geteilt sieht. Eines Tages könnten unsere Erfahrungen in der virtuellen Realität von Oculus gegen den Albtraum geschützt werden, nicht nur anstößige Inhalte gezeigt zu bekommen, sondern auch durch die dargestellten Szenen zu leben.

Wir sehen KI nicht als unsere Geheimwaffe. Facebooks Hussein Mehanna

Aber um das menschliche Leid zu bekämpfen, das durch anstößige Inhalte in sozialen Netzwerken verursacht wird, und die Moderatoren, die ihren eigenen Verstand verkaufen, um es zu blockieren, baut Facebook Brücken über seine eigene Unternehmensfamilie hinaus.

"Wir teilen unsere Forschung offen", erklärt Mehanna, wie Facebook seine Erkenntnisse teilt und seine KI-Technologien offenlegt. "Wir sehen KI nicht als unsere geheime Waffe, nur um mit anderen Unternehmen zu konkurrieren."

Tatsächlich hat Facebook vor einem Jahr begonnen, Teams von Netflix, Google, Uber, Twitter und anderen bedeutenden Technologieunternehmen einzuladen, um die Anwendungen von AI zu diskutieren. Mehanna sagt, dass Facebook jetzt seine vierte oder fünfte Runde periodischer Treffen durchführe, in denen wir "buchstäblich mit ihnen die Konstruktionsdetails" seiner KI-Systeme teilen, die Teams seiner benachbarten Tech-Unternehmen lehren und Feedback erhalten.

Mark Zuckerberg zitiert auf der F8 2016 die Vision und die Sprachen von AI als Teil der 10-jährigen Facebook-Roadmap

"KI voranzutreiben, ist etwas, was du für den Rest der Gemeinschaft und der Welt tun willst, weil es das Leben von viel mehr Menschen berühren wird", bekräftigt Mehanna. Auf den ersten Blick scheint es ein strategischer Fehltritt zu sein, Unternehmen zu helfen, mit denen Facebook um Zeit und Werbung konkurriert.

Aber Mehanna spiegelt die Stimmung von Candela und anderen auf Facebook wieder, wenn er über Open Sourcing spricht. "Ich persönlich glaube, dass es keine Win-Loss-Situation ist, es ist eine Win-Win-Situation. Wenn wir den Zustand der KI in der Welt verbessern, werden wir definitiv davon profitieren. Aber ich sehe nicht, dass die Leute nickern und sie schwächen."

Sicher, wenn Facebook nicht teilt, könnte es ein paar Dollar sparen, die andere für menschliche Inhalt Moderation oder andere Mühe mit AI vermieden werden müssen. Aber durch den Aufbau und das Anbieten der zugrunde liegenden Technologien konnte Facebook sicherstellen, dass es Computer sind, keine Menschen, die schmutzige Arbeit verrichten.