So, Tag drei und zwei sehr erhellende Gespräche zu meinem Pornthema geführt, beide nun nicht bezogen auf meine Vermarktungsperspektive und wohl grade deswegen horizonterweiternd. Die Forschungstorte hat mich auf Fanfiction als Betätigungsfeld insbesondere der weiblichen Klientel hingewiesen, und eine sexualpädagogische Perspektive der Ms_Surreal war nochmal erhellend bezüglich der Problemstellungen und Perspektiven, zu denen ich an sich gerne ein „Gottseidank nicht mein primäres Betätigungsfeld“ denke und die sich ergebenden Probleme schnell fallenlasse. Ab davon muss ich allen massiv ans Herz legen, methodisch inkorrekt anzugucken, es regelte die Halle wie in alten Zeiten.
Dann muss ich aber noch ein paar Gedanken von gestern loswerden bzw. einen ersten Denkprozess runterschreiben. Zweimal eher zufällig in den Talks gelandet, zwei eigentlich nicht direkt verbunden scheinende Themen, aber dann doch irgendwie sehr viel zusammengehörendes. Einmal: Mustererkennung und KI-Manipulation. Wie trainiere ich ein KI-System auf falsche Ergebnisse? Methoden können lokal getestet und auch auf existierende Bid Data-APIs angewandt werden. Der Gedanke per se gefällt mir.
Ich bin eigentlich spontan rein mit der pöhsen Marketerperspektive, wie spielen die Hacker mit den einschlägigen Big Data-Ansätzen, die wiederum im Onlinemarketing gerne als Die Zukunft(tm) gehandelt werden. Die konkrete Umsetzung der Feedbackschleifen und das „Übertragen“ der Fehlinterpretrationen auf bestehende Produktivsysteme hab ich nicht wirklich verstanden, aber es ist zum einen spannend, dass da gefuzzt wird, zum anderen lädts zum Mitmachen ein – als einfacher Usecase/Anwendungsfall zum Probieren wurde empfohlen, einfach mal Portraitbilder zu bearbeiten und zu prüfen, ab wann sie Facebook nicht mehr als Gesicht erkennt. Ich ahne, dass wir mit sowas auch vermehrt in RL in Sachen Kameraüberwachung/Gesichtserkennung zu tun bekommen. Generell mag ich auch den Gedanken, dass Facebook eine Aubergine für Brad Pitt hält. Unfertiges Rumgedenke meinerseits, ich lass mal gären.
Dann: Humans as software extensions. ein als Kunstprojekt angekündigter und dann erstaunlich tiefschichtiger Vortrag über die Wahrnehmung von Menschen als „Zuarbeiter“ der Technik. Der Künstler selber hat recht viel auf diversen Clickworkerplattformen gearbeitet, und seit ich vor Jahren mal nen Zwanni auf Clickworker zusammengetextet hatte, einfach um zu sehen, wie die Plattform auf Lieferseite funktioniert, scheinen wir einen weiten Weg gekommen zu sein. Aktuelle Clickworkerplattformen geben den Auftraggebern die Möglichkeit, permanent die Arbeit ihrer Clickworker zu überwachen, Tastenanschläge/Mausbewegungen pro Projekt/Zeiteinheit werden erfasst, in regelmäßigen Abständen kann man Screenshots der Mikrosklaven angucken und sich überzeugen, dass sie fleißig sind.
Im Gegenzug seien Techniken entstanden, die über Skripte eben diese Aktivitäten vortäuschen und den Clickworker fleißig scheinen lassen. Der Auftraggeber nutzt die Technik als Schnittstelle zur Kontrolle der beauftragten Menschen, jene lassen sich von Skripten emulieren, um „menschlich“ und „fleißig“ zu wirken. Neben der Durchökonomisierung und der Totalkonkurrenz des Konzeptes zwei Verwischungen von Technik und Mensch, die ich unabhängig von der Gruseligkeit des ganzen Szenarios generell faszinierend finde.
Nebenschauplatz: ich weiss nicht mehr welche, aber auf einer der Plattformen, auf denen er unterwegs war, gab es eine Sicherheitsschwankung, die es ermöglichten, den Arbeitsfortschritt von nicht beauftragten Projekten einzusehen. Aus den Arbeitsfiles und -relikten, die er so über Monate hinweg sammelte, baute er Teile seiner Präsi, Collagen etc. Und es fielen interessante Learnings raus.
Ein Beispiel: Die Microsoft-Bilderkennung scheint massiv auf Mechanical Turk (oder ein anderes Clickworker-System) zurückgegriffen zu haben, weil hier extrem viele Arbeitsschritte dokumentiert waren, in denen Clickworker Umrisse aus Bildern nachzeichneten. Es ist zum einen interessant, wie stark da die KI/Deep Learning-Systeme auf massive menschliche Zuarbeit gesetzt haben, zum anderen ist es interessant sich auszumalen, wie da eine Organisation aussehen könnte, mittels der eben Erkennungsroutinen sabotiert würden.
Witzig/gruselig: das „Verschwinden der Arbeit“, wenn man sie nur granular genug macht: eine in den USA eingereichte Klage gegen Google wegen Recaptcha wurde abgewiesen, weil es sich beim Ausfüllen der Captchas (und der damit einhergehenden Zuarbeit für Googles Buchscannen) nicht mehr um „Arbeit“ handle, auf der anderen Seite hat Google so erfolgreich ganze Bibliotheken digitalisiert. Zerlegen, kleinteiliger machen, verteilen, und puff – ist die Arbeit verschwunden. Im übrigen trainieren wir grade ihre Bilderkennungs-KI mit den aktuell gängigen Captchas.
Weiterhin: im Dortmunder U ist eine Afro Tech-Ausstellung, zu der muss ich irgendwann noch. Und Pornhub unterstützt unter internetofdon.gs ein Securityprogramm für vernetzte Sextoys. Sie machen halt alles richtig.
2 Responses to 34c3: Mustererkennung, Clickworker und Porngespräche