{"id":1040,"date":"2022-08-29T10:57:32","date_gmt":"2022-08-20T14:31:02","guid":{"rendered":"https:\/\/www.burg-halle.de\/burglabs-present\/verboscope-2\/"},"modified":"2022-11-04T10:11:01","modified_gmt":"2022-11-04T10:11:01","slug":"verboscope","status":"publish","type":"post","link":"https:\/\/www.burg-halle.de\/burglabs-present\/verboscope\/","title":{"rendered":"Verboscope"},"content":{"rendered":"","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":925,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"grid":"{\r\n  \"colCount\": 14,\r\n  \"colGutter\": 1,\r\n  \"rowGutters\": [\r\n    0,\r\n    0,\r\n    0,\r\n    0,\r\n    0,\r\n    0,\r\n    0\r\n  ],\r\n  \"frameMargin\": 1.5,\r\n  \"topFrameMargin\": 70,\r\n  \"bottomFrameMargin\": 5,\r\n  \"rowAttrs\": [\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#ffffff\"\r\n    }\r\n  ],\r\n  \"bgColor\": \"#ffffff\",\r\n  \"cont\": [\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_HH3\\\"><span style=\\\"color: #ffffff; font-family: 'helvetica neue', sans-serif;\\\">Alexa Steinbr\u00fcck, Simon Maris<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 0,\r\n      \"col\": 0,\r\n      \"colspan\": 8,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 1.5,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 4,\r\n      \"absolute_position\": false,\r\n      \"frameOverflow\": \"\"\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H1\\\" style=\\\"text-align: center;\\\"><span style=\\\"color: #ffffff;\\\">Verboscope<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 1,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 15,\r\n      \"spacebelow\": 14,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 5,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H11\\\" style=\\\"text-align: right;\\\"><span style=\\\"color: #ffffff;\\\">XLab<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 2,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 0,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 6,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H3\\\" style=\\\"text-align: left; line-height: 1;\\\"><span style=\\\"color: #ffffff;\\\">Eine dialogische Schnittstelle <\/span><br \/><span style=\\\"color: #ffffff;\\\">f\u00fcr kollaborative Imagination<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 3,\r\n      \"col\": 0,\r\n      \"colspan\": 7,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 2,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 425,\r\n      \"absolute_position\": false,\r\n      \"frameOverflow\": \"\"\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<p class=\\\"_FT\\\">Bilder mit Hilfe k\u00fcnstlicher Intelligenz (KI) zu beschreiben und darin Objekte und Situationen zu erkennen, war f\u00fcr Forscher*innen lange eine gro\u00dfe Herausforderung. Schlie\u00dflich gelang dies mit Algorithmen des maschinellen Lernens. Mit dem Erfolg entstand die Idee, den Prozess umzukehren: Ist es m\u00f6glich, realistische Bilder aus einer Textbeschreibung zu erzeugen?<\/p><p class=\\\"_FT\\\">In der aktuellen KI-Forschung werden hierf\u00fcr zwei neuronale Netze miteinander kombiniert. Das eine erzeugt Bilder ohne Kenntnis des Inhalts, das andere wurde mit Milliarden von Bild-Text-Paaren aus Internetquellen trainiert. Dadurch enth\u00e4lt es eine umfangreiche Sammlung von visuellem Wissen, mit dem es die \u00c4hnlichkeit eines Bildes mit einer gegebenen Textbeschreibung bewertet. Der Prozess f\u00fchrt das generative Netz zu einem gew\u00fcnschten Bild. Diese Technik macht das Schaffen, Kombinieren und Bearbeiten von Bildern leicht zug\u00e4nglich.<\/p><p class=\\\"_FT\\\">Bei dieser Installation geben Anwender*innen genaue Bildanweisungen als Text ein. \u00dcber einen Chat steht das Tool mit ihnen im Dialog. Es erstellt aus dem Text-Input ein Bild. Nach l\u00e4ngerer Nutzung entsteht ein Korpus von Bildern mit Situationen und Objekten, die so zuvor noch nicht existierten.<\/p><p>\u00a0<\/p>\",\r\n      \"align\": \"bottom\",\r\n      \"row\": 3,\r\n      \"col\": 7,\r\n      \"colspan\": 7,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 7,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 427,\r\n      \"frameOverflow\": \"\",\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"html5video\",\r\n      \"cont\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-scaled.jpg\",\r\n      \"align\": \"top\",\r\n      \"row\": 4,\r\n      \"col\": 1,\r\n      \"colspan\": 12,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 5,\r\n      \"spacebelow\": 5,\r\n      \"yvel\": 1,\r\n      \"push\": 1,\r\n      \"relid\": 442,\r\n      \"autoplay\": false,\r\n      \"loop\": false,\r\n      \"mute\": false,\r\n      \"muteDisabled\": \"\",\r\n      \"controls\": true,\r\n      \"playpauseonclick\": false,\r\n      \"playicon\": true,\r\n      \"ar\": 0.5625,\r\n      \"unmutebutton\": false,\r\n      \"unmuteButtonStyle\": 1,\r\n      \"unmutebuttonDisabled\": \"disabled\",\r\n      \"h\": 1080,\r\n      \"w\": 1920,\r\n      \"mp4\": \"\/wp-content\/uploads\/2022\/08\/02_verboscope.mp4\",\r\n      \"filename\": \"02_verboscope.mp4\",\r\n      \"sizes\": {\r\n        \"full\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-scaled.jpg\",\r\n        \"_4096\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-4096x2304.jpg\",\r\n        \"_3840\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-3840x2160.jpg\",\r\n        \"_3200\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-3200x1800.jpg\",\r\n        \"_2560\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-2560x1440.jpg\",\r\n        \"_1920\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-1920x1080.jpg\",\r\n        \"_1280\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-1280x720.jpg\",\r\n        \"_1024\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-1024x576.jpg\",\r\n        \"_768\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-768x432.jpg\",\r\n        \"_512\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-512x288.jpg\",\r\n        \"_265\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-265x149.jpg\"\r\n      },\r\n      \"imgar\": 0.5625,\r\n      \"mp4attid\": 886,\r\n      \"imgh\": 1440,\r\n      \"imgw\": 2560,\r\n      \"imgattid\": 788,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"img\",\r\n      \"cont\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris.jpg\",\r\n      \"align\": \"top\",\r\n      \"row\": 5,\r\n      \"col\": 1,\r\n      \"colspan\": 12,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 0,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 1,\r\n      \"relid\": 392,\r\n      \"attid\": 1103,\r\n      \"sizes\": {\r\n        \"full\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris.jpg\",\r\n        \"_4096\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-4096x2734.jpg\",\r\n        \"_3840\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-3840x2563.jpg\",\r\n        \"_3200\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-3200x2136.jpg\",\r\n        \"_2560\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-2560x1709.jpg\",\r\n        \"_1920\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-1920x1282.jpg\",\r\n        \"_1280\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-1280x854.jpg\",\r\n        \"_1024\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-1024x684.jpg\",\r\n        \"_768\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-768x513.jpg\",\r\n        \"_512\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-512x342.jpg\",\r\n        \"_265\": \"\/wp-content\/uploads\/2022\/08\/BURG_BurgLabs-Futurium-Berlin-2022_Verboscope_Foto_Simon_Maris-265x177.jpg\"\r\n      },\r\n      \"w\": 6016,\r\n      \"h\": 4016,\r\n      \"ar\": 0.6675531914893617,\r\n      \"alt\": \"\",\r\n      \"absolute_position\": false,\r\n      \"frameOverflow\": \"\"\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H2\\\" style=\\\"text-align: left;\\\"><span style=\\\"color: #ffffff;\\\">Und was bringt die Zukunft?<\/span><\/h1><p class=\\\"_FT\\\"><br \/>Computerprogramme, die auf Machine Learning basieren, sind aus<span class=\\\"Apple-converted-space\\\">\u00a0 <\/span>kreativen Praktiken nicht mehr wegzudenken. Sie erweitern die individuelle Kreativit\u00e4t und werden besonders in fr\u00fchen Phasen der Ideenfindung eingesetzt, wenn Elemente aus dem pers\u00f6nlichen und kulturellen Ged\u00e4chtnis zu neuen Konzepten kombiniert werden. Machine Learning macht riesige Datenmengen zug\u00e4nglich. Die Programme erm\u00f6glichen eine Arbeit mit der \u201eeigenen Kultur\u201c, wie sie vorher noch nicht m\u00f6glich war: mit visuellen Zeichen und Ikonografie, mit Sprache und musikalischen Elementen.<\/p><p class=\\\"_FT\\\">Was hierbei als \u201eeigene Kultur\u201c gilt, ist hoch individuell und personalisierbar. Anfang der 2020er Jahre arbeitete die KI-Forschung noch mit Datens\u00e4tzen, die aus dem Internet stammten. Sie spiegelten die Kultur einer wei\u00dfen m\u00e4nnlichen (Internet-)Gesellschaft wider, was Monokultur und Ausgrenzung schuf. Inzwischen ist jede*r in der Lage, Datens\u00e4tze und Modelle zu erstellen, die die eigene singul\u00e4re lokale Kultur repr\u00e4sentieren.<\/p><p class=\\\"_FT\\\">Eine neue Infrastruktur erm\u00f6glicht das Teilen dieser lokalen Modelle mit anderen Communities. Die Kollaboration zwischen Mensch und KI ist demnach eigentlich eine Kollaboration zwischen Mensch und Mensch. Kreative Leistungen werden als Resultate von Gemeinschaften, nicht Individuen gesehen.<\/p>\",\r\n      \"align\": \"top\",\r\n      \"row\": 6,\r\n      \"col\": 0,\r\n      \"colspan\": 7,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 1475,\r\n      \"frameOverflow\": \"\",\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_HHHH\\\"><span>Franka schreibt ein kreatives Konzept f\u00fcr die Umnutzung einer alten Tankstelle auf dem Land in ein nachhaltiges Kreislauf-Caf\u00e9. Sie ist im Schreibflow, die Worte purzeln aus ihr heraus, der Kaffee flie\u00dft, und das System unterst\u00fctzt sie mit neuen Suggestionen. Es f\u00fchlt sich an, als w\u00fcrde sie mit einer engen Freundin sprechen \u2013 common ground und unmittelbares Verst\u00e4ndnis.<\/span><\/h1><h1 class=\\\"_HHHH\\\"><span>Als das Kaffee-High langsam nachl\u00e4sst, wird Franka mal wieder bewusst, dass ihre eigene Erfahrung begrenzt ist und daher auch der geistige M\u00f6glichkeitsraum, den sie kreativ durchforsten kann. Als in Berlin aufgewachsene wei\u00dfe Cis-Frau mit Universit\u00e4tsabschluss hat sie einen ganz spezifischen Bias. Es f\u00e4llt ihr schwer, dar\u00fcber hinauszudenken. Auf ihrem Smartphone \u00f6ffnet sie die Seite vom \u201eOpen Bias Exchange\u201c und gibt die Suchworte: \u201efeminist\u201c, \u201erural\u201c, \u201esolidarity\u201c ein.<\/span><\/h1><h1 class=\\\"_HHHH\\\"><span>Zwei vortrainierte Model-Checkpoints werden ihr zum Download vorgeschlagen. Die Quellen sind transparent und sicher. Keine riesigen Tech-Konzerne oder omin\u00f6se AGI Labs, sondern lokale Communities, die die Modelle selbst trainiert haben und von jedem Download und Nutzen direkt profitieren. Ein Modell kommt vom \u201eCaring Computation Institute\u201c in Tiflis, das andere von einer solidarischen Hackerinnen-Truppe aus Lissabon. Sie schreibt diesen Leuten eine Nachricht, l\u00e4dt das Modell herunter und macht sich einen neuen Kaffee.<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 6,\r\n      \"col\": 7,\r\n      \"colspan\": 7,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 20,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1.5,\r\n      \"push\": 0,\r\n      \"relid\": 1477,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_HH2\\\" style=\\\"text-align: center;\\\"><a href=\\\"https:\/\/www.burg-halle.de\/burglabs-present\/system-solum\/\\\" data-type=\\\"project\\\" data-id=\\\"895\\\" data-title=\\\"System: Solum\\\" data-catid=\\\"[1]\\\">Mehr entdecken? <\/a><br \/><a href=\\\"https:\/\/www.burg-halle.de\/burglabs-present\/system-solum\/\\\" data-type=\\\"project\\\" data-id=\\\"895\\\" data-title=\\\"System: Solum\\\" data-catid=\\\"[1]\\\">Zum n\u00e4chsten Projekt!<\/a><\/h1>\",\r\n      \"align\": \"middle\",\r\n      \"row\": 7,\r\n      \"col\": 1,\r\n      \"colspan\": 12,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 1,\r\n      \"relid\": 1478,\r\n      \"frameOverflow\": \"\",\r\n      \"absolute_position\": false\r\n    }\r\n  ]\r\n}","phonegrid":"{\r\n  \"colCount\": 14,\r\n  \"colGutter\": 1,\r\n  \"rowGutters\": [\r\n    \"0\",\r\n    \"0\",\r\n    \"0\",\r\n    \"0\",\r\n    \"0\",\r\n    \"0\",\r\n    \"0\",\r\n    \"0\",\r\n    \"0\"\r\n  ],\r\n  \"frameMargin\": 5,\r\n  \"topFrameMargin\": \"5\",\r\n  \"bottomFrameMargin\": 5,\r\n  \"rowAttrs\": [\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#7a3cfb\"\r\n    },\r\n    {\r\n      \"bgcolor\": \"#ffffff\"\r\n    }\r\n  ],\r\n  \"bgColor\": \"#ffffff\",\r\n  \"cont\": [\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_HH3\\\"><span style=\\\"color: #ffffff; font-family: 'helvetica neue', sans-serif;\\\">Alexa Steinbr\u00fcck, Simon Maris<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 0,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 3,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 4,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H1\\\" style=\\\"text-align: center;\\\"><span style=\\\"color: #ffffff;\\\">Verboscope<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 1,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 9,\r\n      \"spacebelow\": 8,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 5,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H11\\\" style=\\\"text-align: right;\\\"><span style=\\\"color: #ffffff;\\\">XLab<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 2,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 0,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 6,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H3\\\" style=\\\"text-align: left; line-height: 1;\\\"><span style=\\\"color: #ffffff;\\\">Eine dialogische Schnittstelle <\/span><br \/><span style=\\\"color: #ffffff;\\\">f\u00fcr kollaborative Imagination<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 3,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 2,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 425,\r\n      \"absolute_position\": false,\r\n      \"frameOverflow\": \"\"\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<p class=\\\"_FT\\\">Bilder mit Hilfe k\u00fcnstlicher Intelligenz (KI) zu beschreiben und darin Objekte und Situationen zu erkennen, war f\u00fcr Forscher*innen lange eine gro\u00dfe Herausforderung. Schlie\u00dflich gelang dies mit Algorithmen des maschinellen Lernens. Mit dem Erfolg entstand die Idee, den Prozess umzukehren: Ist es m\u00f6glich, realistische Bilder aus einer Textbeschreibung zu erzeugen?<\/p><p class=\\\"_FT\\\">In der aktuellen KI-Forschung werden hierf\u00fcr zwei neuronale Netze miteinander kombiniert. Das eine erzeugt Bilder ohne Kenntnis des Inhalts, das andere wurde mit Milliarden von Bild-Text-Paaren aus Internetquellen trainiert. Dadurch enth\u00e4lt es eine umfangreiche Sammlung von visuellem Wissen, mit dem es die \u00c4hnlichkeit eines Bildes mit einer gegebenen Textbeschreibung bewertet. Der Prozess f\u00fchrt das generative Netz zu einem gew\u00fcnschten Bild. Diese Technik macht das Schaffen, Kombinieren und Bearbeiten von Bildern leicht zug\u00e4nglich.<\/p><p class=\\\"_FT\\\">Bei dieser Installation geben Anwender*innen genaue Bildanweisungen als Text ein. \u00dcber einen Chat steht das Tool mit ihnen im Dialog. Es erstellt aus dem Text-Input ein Bild. Nach l\u00e4ngerer Nutzung entsteht ein Korpus von Bildern mit Situationen und Objekten, die so zuvor noch nicht existierten.<\/p><p>\u00a0<\/p>\",\r\n      \"align\": \"bottom\",\r\n      \"row\": 4,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 3,\r\n      \"spacebelow\": 3,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 427,\r\n      \"frameOverflow\": \"\",\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"html5video\",\r\n      \"cont\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-scaled.jpg\",\r\n      \"align\": \"top\",\r\n      \"row\": 5,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 5,\r\n      \"spacebelow\": 5,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 442,\r\n      \"autoplay\": false,\r\n      \"loop\": false,\r\n      \"mute\": false,\r\n      \"muteDisabled\": \"\",\r\n      \"controls\": true,\r\n      \"playpauseonclick\": false,\r\n      \"playicon\": true,\r\n      \"ar\": 0.5625,\r\n      \"unmutebutton\": false,\r\n      \"unmuteButtonStyle\": 1,\r\n      \"unmutebuttonDisabled\": \"disabled\",\r\n      \"h\": 1080,\r\n      \"w\": 1920,\r\n      \"mp4\": \"\/wp-content\/uploads\/2022\/08\/02_verboscope.mp4\",\r\n      \"filename\": \"02_verboscope.mp4\",\r\n      \"sizes\": {\r\n        \"full\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-scaled.jpg\",\r\n        \"_4096\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-4096x2304.jpg\",\r\n        \"_3840\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-3840x2160.jpg\",\r\n        \"_3200\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-3200x1800.jpg\",\r\n        \"_2560\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-2560x1440.jpg\",\r\n        \"_1920\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-1920x1080.jpg\",\r\n        \"_1280\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-1280x720.jpg\",\r\n        \"_1024\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-1024x576.jpg\",\r\n        \"_768\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-768x432.jpg\",\r\n        \"_512\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-512x288.jpg\",\r\n        \"_265\": \"\/wp-content\/uploads\/2022\/08\/220811_FUT-video-titel-Verboscope-265x149.jpg\"\r\n      },\r\n      \"imgar\": 0.5625,\r\n      \"mp4attid\": 886,\r\n      \"imgh\": 1440,\r\n      \"imgw\": 2560,\r\n      \"imgattid\": 788,\r\n      \"absolute_position\": false,\r\n      \"frameOverflow\": \"\"\r\n    },\r\n    {\r\n      \"type\": \"img\",\r\n      \"cont\": \"\/wp-content\/uploads\/2022\/08\/220818_BURG_BurgLabs-2022_XLab_Verboscope-Objekt-01-Foto_Jana_Luck-HQ.jpg\",\r\n      \"align\": \"top\",\r\n      \"row\": 6,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 5,\r\n      \"spacebelow\": 5,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 391,\r\n      \"attid\": 883,\r\n      \"sizes\": {\r\n        \"full\": \"\/wp-content\/uploads\/2022\/08\/220818_BURG_BurgLabs-2022_XLab_Verboscope-Objekt-01-Foto_Jana_Luck-HQ.jpg\",\r\n        \"_1024\": \"\/wp-content\/uploads\/2022\/08\/220818_BURG_BurgLabs-2022_XLab_Verboscope-Objekt-01-Foto_Jana_Luck-HQ-1024x1536.jpg\",\r\n        \"_768\": \"\/wp-content\/uploads\/2022\/08\/220818_BURG_BurgLabs-2022_XLab_Verboscope-Objekt-01-Foto_Jana_Luck-HQ-768x1152.jpg\",\r\n        \"_512\": \"\/wp-content\/uploads\/2022\/08\/220818_BURG_BurgLabs-2022_XLab_Verboscope-Objekt-01-Foto_Jana_Luck-HQ-512x768.jpg\",\r\n        \"_265\": \"\/wp-content\/uploads\/2022\/08\/220818_BURG_BurgLabs-2022_XLab_Verboscope-Objekt-01-Foto_Jana_Luck-HQ-265x398.jpg\"\r\n      },\r\n      \"w\": 1200,\r\n      \"h\": 1800,\r\n      \"ar\": 1.5,\r\n      \"alt\": \"\",\r\n      \"absolute_position\": false,\r\n      \"frameOverflow\": \"\",\r\n      \"dosync\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_H2\\\" style=\\\"text-align: left;\\\"><span style=\\\"color: #ffffff;\\\">Und was bringt die Zukunft?<\/span><\/h1><p class=\\\"_FT\\\"><br \/>Computerprogramme, die auf Machine Learning basieren, sind aus<span class=\\\"Apple-converted-space\\\">\u00a0 <\/span>kreativen Praktiken nicht mehr wegzudenken. Sie erweitern die individuelle Kreativit\u00e4t und werden besonders in fr\u00fchen Phasen der Ideenfindung eingesetzt, wenn Elemente aus dem pers\u00f6nlichen und kulturellen Ged\u00e4chtnis zu neuen Konzepten kombiniert werden. Machine Learning macht riesige Datenmengen zug\u00e4nglich. Die Programme erm\u00f6glichen eine Arbeit mit der \u201eeigenen Kultur\u201c, wie sie vorher noch nicht m\u00f6glich war: mit visuellen Zeichen und Ikonografie, mit Sprache und musikalischen Elementen.<\/p><p class=\\\"_FT\\\">Was hierbei als \u201eeigene Kultur\u201c gilt, ist hoch individuell und personalisierbar. Anfang der 2020er Jahre arbeitete die KI-Forschung noch mit Datens\u00e4tzen, die aus dem Internet stammten. Sie spiegelten die Kultur einer wei\u00dfen m\u00e4nnlichen (Internet-)Gesellschaft wider, was Monokultur und Ausgrenzung schuf. Inzwischen ist jede*r in der Lage, Datens\u00e4tze und Modelle zu erstellen, die die eigene singul\u00e4re lokale Kultur repr\u00e4sentieren.<\/p><p class=\\\"_FT\\\">Eine neue Infrastruktur erm\u00f6glicht das Teilen dieser lokalen Modelle mit anderen Communities. Die Kollaboration zwischen Mensch und KI ist demnach eigentlich eine Kollaboration zwischen Mensch und Mensch. Kreative Leistungen werden als Resultate von Gemeinschaften, nicht Individuen gesehen.<\/p>\",\r\n      \"align\": \"top\",\r\n      \"row\": 7,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 0,\r\n      \"relid\": 1475,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_HHHH\\\"><span>Franka schreibt ein kreatives Konzept f\u00fcr die Umnutzung einer alten Tankstelle auf dem Land in ein nachhaltiges Kreislauf-Caf\u00e9. Sie ist im Schreibflow, die Worte purzeln aus ihr heraus, der Kaffee flie\u00dft, und das System unterst\u00fctzt sie mit neuen Suggestionen. Es f\u00fchlt sich an, als w\u00fcrde sie mit einer engen Freundin sprechen \u2013 common ground und unmittelbares Verst\u00e4ndnis.<\/span><\/h1><h1 class=\\\"_HHHH\\\"><span>Als das Kaffee-High langsam nachl\u00e4sst, wird Franka mal wieder bewusst, dass ihre eigene Erfahrung begrenzt ist und daher auch der geistige M\u00f6glichkeitsraum, den sie kreativ durchforsten kann. Als in Berlin aufgewachsene wei\u00dfe Cis-Frau mit Universit\u00e4tsabschluss hat sie einen ganz spezifischen Bias. Es f\u00e4llt ihr schwer, dar\u00fcber hinauszudenken. Auf ihrem Smartphone \u00f6ffnet sie die Seite vom \u201eOpen Bias Exchange\u201c und gibt die Suchworte: \u201efeminist\u201c, \u201erural\u201c, \u201esolidarity\u201c ein.<\/span><\/h1><h1 class=\\\"_HHHH\\\"><span>Zwei vortrainierte Model-Checkpoints werden ihr zum Download vorgeschlagen. Die Quellen sind transparent und sicher. Keine riesigen Tech-Konzerne oder omin\u00f6se AGI Labs, sondern lokale Communities, die die Modelle selbst trainiert haben und von jedem Download und Nutzen direkt profitieren. Ein Modell kommt vom \u201eCaring Computation Institute\u201c in Tiflis, das andere von einer solidarischen Hackerinnen-Truppe aus Lissabon. Sie schreibt diesen Leuten eine Nachricht, l\u00e4dt das Modell herunter und macht sich einen neuen Kaffee.<\/span><\/h1>\",\r\n      \"align\": \"top\",\r\n      \"row\": 8,\r\n      \"col\": 0,\r\n      \"colspan\": 14,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 15,\r\n      \"spacebelow\": 5,\r\n      \"yvel\": 1.1,\r\n      \"push\": 0,\r\n      \"relid\": 1477,\r\n      \"absolute_position\": false\r\n    },\r\n    {\r\n      \"type\": \"text\",\r\n      \"cont\": \"<h1 class=\\\"_HH2\\\" style=\\\"text-align: center;\\\"><a href=\\\"https:\/\/www.burg-halle.de\/burglabs-present\/system-solum\/\\\" data-type=\\\"project\\\" data-id=\\\"895\\\" data-title=\\\"System: Solum\\\" data-catid=\\\"[1]\\\">Mehr entdecken? <\/a><br \/><a href=\\\"https:\/\/www.burg-halle.de\/burglabs-present\/system-solum\/\\\" data-type=\\\"project\\\" data-id=\\\"895\\\" data-title=\\\"System: Solum\\\" data-catid=\\\"[1]\\\">Zum n\u00e4chsten Projekt!<\/a><\/h1>\",\r\n      \"align\": \"middle\",\r\n      \"row\": 9,\r\n      \"col\": 1,\r\n      \"colspan\": 12,\r\n      \"offsetx\": 0,\r\n      \"offsety\": 0,\r\n      \"spaceabove\": 7,\r\n      \"spacebelow\": 0,\r\n      \"yvel\": 1,\r\n      \"push\": 1,\r\n      \"relid\": 1478,\r\n      \"frameOverflow\": \"\",\r\n      \"absolute_position\": false\r\n    }\r\n  ],\r\n  \"leftFrameMargin\": \"2\",\r\n  \"rightFrameMargin\": \"2\"\r\n}","_links":{"self":[{"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/posts\/1040"}],"collection":[{"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/comments?post=1040"}],"version-history":[{"count":0,"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/posts\/1040\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/media\/925"}],"wp:attachment":[{"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/media?parent=1040"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/categories?post=1040"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.burg-halle.de\/burglabs-present\/wp-json\/wp\/v2\/tags?post=1040"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}