Symposium der UT Austin untersucht die Zukunft von Architektur und KI
HeimHeim > Nachricht > Symposium der UT Austin untersucht die Zukunft von Architektur und KI

Symposium der UT Austin untersucht die Zukunft von Architektur und KI

Dec 19, 2023

Architektur nach KIUniversity of Texas beim AustinSymposium 3. FebruarAusstellung 30. Januar – 24. Februar

In bestimmten Kreisen wird 2022 als das Jahr des Text-to-Image-Modells in Erinnerung bleiben. Im vergangenen April brachte OpenAI DALL-E 2 auf den Markt, ein Update zu DALL-E aus dem Vorjahr, das in Sekundenschnelle sehr detaillierte und oft surrealistische Bilder aus Textbeschreibungen erzeugt. (Der Name ist ein Kunstwort aus der Pixar-Figur WALL-E und dem Künstler Salvador Dalí). Schnell auf den Fersen von DALL-E 2 kamen Stable Diffusion, Midjourney, Imagen und andere „Deep-Learning“-Modelle, die im Wesentlichen dasselbe tun. Die Computerarchitekturen, die diese Plattformen ermöglichen, sind nicht neu, sondern wurden bisher nur von kleinen Gruppen von Spezialisten genutzt. Jetzt sind sie für jeden zugänglich, der in der Lage ist, computergenerierte Bilder zu erzeugen, die bisher die Domäne ausgebildeter Visualisierungsspezialisten waren.

Mit der Veröffentlichung dieser Modelle für maschinelles Lernen geriet die Welt der Kunst und Architektur in Aufruhr, mit einer Mischung aus Händeringen (die Roboter kommen für unsere Jobs!) und Jubel (die Macht, die uns zur Verfügung steht, ist fast überwältigend!). In den letzten Monaten haben mehrere Konferenzen und Ausstellungen versucht, den numinösen Nebel dieser ersten Aufregung zu durchbrechen und theoretische Wegweiser abzustecken, die zum Verständnis dieser neuen Technologien und ihrer möglichen Auswirkungen auf die Architekturpraxis beitragen. Dazu gehörten die Neural Architecture Exhibit and Symposium am Taubman College in Michigan im November und mehrere Panels auf der ACADIA-Konferenz 2022. Zuletzt veranstaltete die University of Texas an der Austin School of Architecture (UTSoA) eine Ausstellung und ein Symposium mit dem Titel „Architecture After AI“.

Die von den UTSoA-Professoren Kory Bieg, Daniel Koehler und Clay Odom organisierte Ausstellung versammelt etwa 2.000 durch KI generierte Text-zu-Bild-Bilder, die von etwa 60 Architekturwissenschaftlern und -praktikern aus der ganzen Welt, einschließlich der Kuratoren selbst, eingereicht wurden. Die Bilder werden in einer Reihe automatisch scrollender Diashows gezeigt, die auf die Wände der Mebane Gallery von UTSOA projiziert werden. Jedes Bild erscheint für ein paar Sekunden, bevor es durch das nächste in der Warteschlange ersetzt wird, ein schwindelerregender Strom, der die enorme Menge an Bildern verdeutlicht, die Menschen, die diese Modelle verwenden, am laufenden Band produzieren. Inhaltlich tendieren die meisten Bilder zu utopischen/dystopischen Architekturen – es ist schwer, den Unterschied zu erkennen –, die mit Pflanzen und anderen natürlichen Merkmalen geschmückt oder verwachsen sind. Andere sind eher augenzwinkernd und zeigen Gonzo-Volkssprachen, bizarre Gegenüberstellungen, hinterlistige literarische Anspielungen und andere Insider-Witze. Einige scheinen an einer Kritik an der Text-zu-Bild-KI zu grenzen und die Aufmerksamkeit auf ungelöste Details, die Unmöglichkeit, diese architektonischen Visionen tatsächlich zu verwirklichen, oder darauf zu lenken, wie weit das generierte Bild von der Eingabeaufforderung entfernt ist. Soweit ich das beurteilen konnte, war das einzige verbindende Merkmal, dass die Co-Autoren dieser Bilder offenbar großen Spaß daran hatten, sie zu erstellen. Es gibt eindeutig einen Aspekt des Spiels, und wenn man das erkennt, ist es schwer, sich nicht verzaubern zu lassen – und noch schwieriger, irgendetwas davon als Vorhersage für die Zukunft der gebauten Umwelt ernst zu nehmen.

Auf dem dazugehörigen Symposium stellten die Organisatoren jedoch klar, dass hier etwas Ernsteres als nur ein Spiel im Gange sei. Koehler schlug vor, dass das Aufkommen von Text-zu-Bild-KI – und Chatbots wie ChatGPT – einen Wendepunkt in der Geschichte der Architektur darstellt, der die Menschheit grundlegend verändert, „so wie gedruckte Bücher uns verändert haben“. Bieg sagte, die Architektur habe zu einer Zeit, in der sie sich ebenfalls in einer Krise befinde, eine „Singularität“ erreicht und zitierte eine Zeile aus Gottfried Sempers „Stil in den technischen und tektonischen Künsten“, in der es darum geht, dass die Künste durch den Prozess ihrer eigenen Zerstörung eine phönixartige Wiedergeburt erleben – was darauf hindeutet KI-Plattformen können sowohl den Status quo zerstören als auch eine neue architektonische Zukunft eröffnen. Die Moderatoren, die alle in irgendeiner Weise mit KI arbeiten, boten unterschiedliche Perspektiven darauf, was auf der anderen Seite dieses historischen Wendepunkts liegen könnte, wenn es sich um einen solchen handelt.

Andrew Kudless, Gründer von Matsys und Professor an der University of Houston, wies darauf hin, dass die aktuelle Generation von KI-Plattformen die erste digitale Technologie seit 30 Jahren sei, die sich auf die Erweiterung von Vorstellungskraft und Kreativität statt auf die Steigerung der Produktionseffizienz konzentriert. Er zeigte weiter, dass diese Erweiterung der Vorstellungskraft kein offenes Ende hat. Da diese Plattformen anhand von Datensätzen trainiert werden – häufig handelt es sich dabei um mit Untertiteln versehene Bilder, die aus dem Internet stammen – tendiert das, was sie erzeugen, zu bestimmten Assoziationen und Ästhetiken, die in den Daten und der Kultur, die sie produziert, enthalten sind. Wenn man zum Beispiel nach Bildauflösungen fragt, die außerhalb dessen liegen, wofür ein Modell trainiert ist, kann es völlig aus der Bahn geraten, während es, wenn man ihm eine bedeutungslose Aufforderung gibt, dazu neigt, sich dem anzunähern, was es weiß: Im Fall von Midjourney werden Bilder von jungen, Weiße Steampunk-Frauen, meist und beunruhigenderweise, mit Schnitten und Prellungen im Gesicht. Wenn Sie die gleiche Aufforderung stellen, aber bitten, keine Frauen zu sehen, erhalten Sie Raumschiffe und andere Science-Fiction-Fahrzeuge. Während beunruhigende Macken wie diese mit der Zeit durch mehr Trainingsdaten und andere Anpassungen behoben werden könnten, warnte Kudless vor einem Streben nach völliger Auflösung und Realitätstreue. „Ich denke, der Wert generativer KIs liegt in ihrer Fähigkeit, Mehrdeutigkeit und inkohärente Zusammenstellungen von Form und Atmosphäre zu erzeugen“, sagte er und verglich den Prozess der Verwendung dieser Plattformen im Design mit dem iterativen Prozess des Erkundens durch Skizzieren.

Jenny Sabin, Direktorin des Jenny Sabin Studios und Professorin an der Cornell University, argumentierte, dass KI grundsätzlich menschlich sei. Daher ist es durchaus in der Lage, unsere beunruhigenderen dominanten Eigenschaften wie Frauenfeindlichkeit und Rassismus zu reproduzieren und zu verstärken. Sie sagte, dass die Text-zu-Bild-KI zwar neue Möglichkeiten für die komplexe Formfindung eröffne, es aber auch andere Bereiche der KI gäbe, die der Architektur zugute kommen könnten, zum Beispiel radikal veränderte Arbeitsabläufe in Design und Pädagogik; Analyse von Konstruktionsfehlern und improvisierte Korrekturen; Nachhaltigkeit in die Städte integrieren; und – um ihre eigene Arbeit voranzutreiben – den Aufbau einer einfühlsamen und heilenden Architektur, die Benutzer lesen und auf sie reagieren kann. Sabin stellte eines ihrer Projekte vor, das untersucht, wie Architektur in Zusammenarbeit mit KI einfühlsam und auf Menschen reagieren kann. Es erhielt den Namen Ada, nach der Universalgelehrten und frühen Computerprogrammiererin Ada Lovelace, und wurde in Zusammenarbeit mit Microsoft Research entwickelt. Ada besteht aus einem klobigen Zellgerüst und gestrickten Röhren, die mit Sensoren, Glasfasern und LEDs ausgestattet sind. Ada verwendet KI-Algorithmen, um „Gefühlsdaten“ – Lächeln, Stirnrunzeln usw. – in Farbe und Licht zu verarbeiten, die wie bei einem Kopffüßer oder einer Qualle durch das durchsichtige Volumen kräuseln . Es macht Spaß, über eine Architektur nachzudenken, die einen anlächelt, aber es ist auch ein wenig beunruhigend, darüber nachzudenken, wie dieselbe Architektur jedem in der Nähe seine beschissene Stimmung mitteilt.

Der Designer, Professor, Autor, Musiker und Multimedia-Künstler Ed Keller, der am Rensselaer Polytechnic Institute und Parsons lehrt, hielt eine rhapsodische Rede, in der es mehr um die Erfahrung – oder Gefühlsstruktur – der Moderne in ihren neuesten technologischen Gewändern ging, als um die Auseinandersetzung mit KI als solche ein Werkzeug speziell für die Architektur. Er sprach von der Seltsamkeit, in einer Zeit zu leben, in der so vieles aus der Science-Fiction Wirklichkeit wird, ein Aufschwung, den er mit der kambrischen Explosion verglich, eine J-Kurve, die in seiner eigenen Arbeit durch die Tatsache dargestellt wird, dass er in den letzten Monaten mit generativen Methoden gearbeitet hat AI hat er mehr Bilder „kreiert“ als in den 30 Jahren zuvor als Designer. Welchen Wert hat dieser Inhaltsausbruch? Keller sagte, dass alle erzeugten Bilder wertvolle Datenpunkte seien, die an die Maschine zurückgespeist werden könnten, was bedeutet, dass der Computer selbst möglicherweise das Hauptpublikum sei. Er sinnierte auch darüber, dass, wenn eine Handvoll Designer, die mit KI-Tools arbeiten, in ein paar Monaten die gesamte Geschichte der bis zu diesem Zeitpunkt akkumulierten menschlichen Produktion übertreffen kann, diese Leistung „wie Tränen im Regen“ wird. Der Elefant im Raum, sagte Keller, ist die Singularität, ein Moment, in dem nichtmenschliche Ontologien zu den dominierenden Kräften in unserer Welt werden. Unsere Herausforderung, wenn wir mit KI-Werkzeugen konfrontiert werden, die, obwohl sie derzeit nicht bei Bewusstsein sind, möglicherweise eine Form von Bewusstsein aufbauen, ähnelt dem Erlernen, mit Außerirdischen zu sprechen.

Kyle Steinfeld, außerordentlicher Professor für Architektur an der UC Berkeley, brachte uns mit einer soziotechnischen Geschichte der Text-zu-Bild-KI zurück auf den Boden der Tatsachen. Der erste Schatten, den er verriet, war die Vorstellung, dass das Thema der Konferenz künstliche Intelligenz sei. Echte KI sei noch nicht erfunden, sagte er. Die aktuelle Generation von Chatbots und Text-to-Image-Plattformen kann genauer als generative Statistik oder lineare Algebra beschrieben werden. (Wenn das für jemanden klarer ist, senden Sie mir bitte eine E-Mail.) Dennoch sieht Steinfeld in diesen Entwicklungen eine gewisse Ermutigung, da sie dazu führen könnten, dass die Technologie die seit 1963 gemachten Versprechen von CAD erfüllt, tatsächlich ein guter kollaborativer kreativer Partner im Design zu sein. Die aktuelle Generation von CAD-Tools zwingt den Menschen dazu, seine Produktionsweise festzulegen, während Text-to-Image die Möglichkeit bietet, dass Designtools für maschinelles Lernen anfangen, mehr wie menschliche Designer zu denken. Die KI-Forschung begann ebenfalls in den 1960er-Jahren, kam aber erst in den 2000er-Jahren richtig in Schwung, als sich die Rechenleistung der benötigten Leistung näherte und die Welt begann, Ozeane von Daten zu produzieren und zu speichern. Zu dieser Zeit wurden Modelle für tiefes maschinelles Lernen entwickelt, die Text-zu-Bild-Plattformen ermöglichen, um das Problem der Verarbeitung und Speicherung all dieser Daten zu lösen. Diese maschinellen Lernarchitekturen wurden dann von einer Community von Amateurkünstlern in Bildgeneratoren integriert, die mit den Tools experimentierten und auf Reddit mit ihren Erfolgen prahlten. Was die Frage betrifft, ob diese KI-Plattformen bestehende kreative Kulturen zerstören werden, meinte Steinfeld, dass Computervisualisierungsspezialisten möglicherweise besorgt sein müssten, da ihr Handwerk für jedermann zugänglich geworden sei. Unabhängig davon, welche Störungen diese Technologien auf dem Arbeitsmarkt hervorrufen, macht die Text-zu-Bild-KI die Erstellung von Architekturbildern zweifellos einfach, schnell und daher weitaus weniger wertvoll als in der Vergangenheit.

Marta Nowak, Gründerin des transdisziplinären Designstudios AN.ONYMOUS und Assistenzprofessorin an der Ohio State University, folgte Steinfeld mit einer Präsentation ihrer Arbeiten mit KI im architektonischen Raum. Sie begann mit einer kurzen Geschichte von Maschinen, die das Verhalten von Tieren und Menschen nachahmen sollten, und gipfelte in der ersten Anwendung von KI im Supercomputer Deep Blue von IBM, der 1997 in einer Schachpartie gegen Gary Kasparov triumphierte (er verlor gegen den Großmeister). das vorherige Jahr). Anschließend zeigte sie Arbeiten, die sie in einem Studio zusammen mit Greg Lynn an der UCLA produziert hatte und in denen untersucht wurde, wie sich heutige Roboter – wie der Roomba – durch den Raum bewegen und wie sie Objekte und Menschen in ihrer Umgebung visualisieren. Diese Forschung führte sie zu Projekten, an denen sie mit der Forschungs- und Entwicklungsabteilung von Google zusammenarbeitete, um flexible, hybride Büroräume zu entwerfen, die KI verwenden, um die Sichtverbindung bei Remote-/persönlichen Besprechungen zu erleichtern; Erstellen Sie Arbeitsbereiche, die sich an die Vorlieben einzelner Mitarbeiter anpassen, indem Sie einen Ausweis durchziehen, die Schreibtischhöhe anpassen, Familienfotos abrufen und sogar die HVAC-Einstellungen anpassen. und programmieren Sie Roboter-Trennwände, die sich autonom durch offene Büroräume bewegen und sich entfalten, um bei Bedarf Privatsphäre zu bieten. Anstatt KI zum Entwerfen von Gebäuden zu verwenden, liegt ihr Interesse laut Nowak darin, „Objekten, Architekturkomponenten und Gebäuden künstliche Intelligenz zu verleihen und ihnen zu ermöglichen, kontinuierlich zu interagieren und auf ihre menschlichen Benutzer zu reagieren – nicht um intelligent gestaltete Räume zu schaffen, sondern um intelligente Räume zu schaffen.“ Raum."

Die Abschlusspräsentation wurde von der Künstlerin Sofia Crespo und ihrem Mitarbeiter im Entangled Others Studio, Feileacan McCormack, gehalten. Sie nutzen KI als Werkzeug, um Muster zu extrahieren und sie für ästhetische Effekte neu anzuordnen. Ihre Arbeit konzentriert sich auf Facetten der natürlichen Welt, insbesondere auf Meeresorganismen und Insekten, und beinhaltet die Einspeisung von Daten über diese Lebewesen, die entweder aus dem Internet stammen oder direkt aus der Feldforschung aufgezeichnet werden, in generative gegnerische Netzwerke, die dann digitale Modelle erstellen. Die Ergebnisse reichen von virtuellen Streichelzoos einzelner Exemplare bis hin zu ausgestalteten Ökosystemen mit mehreren miteinander interagierenden „Lebensformen“. Bei den Lebewesen handelt es sich nicht um exakte Nachbildungen existierender Arten, sondern um bizarre Golems, deren Formen, Texturen und Bewegungen sowohl durch das mangelnde Verständnis der Maschine für das, was sie zu modellieren versucht, als auch durch die Daten, die sie tatsächlich empfängt, geprägt sind. „Der Mangel an Daten wird Teil der künstlerischen Aussage“, sagte Crespo. „Die KI kann sich nicht vorstellen, wie diese Kreaturen aussehen, es sei denn, sie erhält eine Probe … Das Projekt ist durch das Fehlen von etwas geprägt.“ Das Werk ist zwar faszinierend anzusehen, steht aber dennoch im Hintergrund gegenüber dem, was jeder, der genau hinschaut, draußen finden kann. „Man kann kaum jemals ein Insekt hervorbringen, das nicht durch die schiere Vielfalt und Kreativität der natürlichen Selektion völlig von der Bühne geworfen wird“, sagte McCormack. „Was wir tun können, ist, dies als eine Möglichkeit zu nutzen, die uns zur Verfügung stehenden Daten über die Insektenwelt zu kartieren, in diesem Fall sehr wenig, aber dennoch können wir in diesem winzigen Fragment so viele fantastische und seltsame Formen finden, die es zu erforschen gilt.“ "

Wenn dies der Beginn eines neuen Zeitalters der KI-gestützten menschlichen Erfahrung ist, ist es ein ziemlich merkwürdiger Zeitpunkt. Es scheint, dass wir beide erstaunt sind über die schiere Unermesslichkeit der Rechenleistung, die sich heute in den Händen normaler Menschen befindet, und gleichzeitig ein wenig verblüfft über die Ergebnisse sind. Schon jetzt spüre ich ein Gefühl der Müdigkeit bei der Vorhersehbarkeit und Homogenität der Bilder, die aus Text-Bild-Generatoren herausspritzen, wie so viele Würstchen aus dem Wursthersteller; und die aktuellen Vorstöße in autonome, mobile und sogar reaktionsfähige Architekturen scheinen kaum mehr als exzessive und langweilige IRL-Erweiterungen der robusten Überwachungstechnologie des Internets zu sein. Wir haben bereits Laptops und Smartphones, die jede unserer Bewegungen, Stimmungen und Wünsche verfolgen. Brauchen wir wirklich Stühle, die unter unseren Hintern rutschen, bevor wir uns setzen, oder Baldachine, die weinen, wenn wir uns deprimiert fühlen? KI scheint das Potenzial zu haben, uns bei der Bewältigung vieler heikler Krisen unserer Epoche zu helfen – die Eindämmung des Klimawandels, die Reparatur verfallender Infrastruktur, die Planung nachhaltiger Städte –, aber sie ermöglicht uns nicht, mit den einfachsten Eingabeaufforderungen fieberhaft psychedelische Bilder hervorzupumpen scheinen einer von ihnen zu sein. Vielleicht ist die Text-zu-Bild-Modellierung nichts anderes als der Versuch eines anderen Tech-Brüders, einen Markt zu erobern, und deshalb ist es vielleicht etwas, auf das wir verzichten können. Natürlich sagen uns Denker seit dem 19. Jahrhundert, dass der Weg der Moderne uns unaufhaltsam in den Schlund der Singularität führen wird, ob es uns nun nützt oder nicht. Wir können die Fahrt genauso gut genießen.