Aktuelle Tendenzen in der Architektur erinnern zwar an „organische“ Konstruktionen wie solche von Frei Otto, konzipiert werden sie jedoch mit ganz anderen Mitteln. Der heutige Einsatz des Computers kann Form, Material und Produktion generieren. Dadurch ändern sich womöglich die Grundlagen einer architekturhistorischen Analyse der Objekte.
Dominik Lengyel und Catherine Toulouse sprechen über „Die formale Sprache computergenerierter Architektur“, deren Spielräume zwischen Funktion und Beliebigkeit, aber auch digitaler oder analog-sinnbildlicher Banalität liegen. Automatismen im Entwurfsprozess sind ein Risiko, sie basieren auf einer bis Durand zurückreichenden Ordnung, die als Operationen etabliert wurden. Victoria H. F. Scott, „From Modernism to Parametricism“, wendet sich den Neudefinitionen von Form als autonomer Produktion zu. Sie folgt dabei Michael Fried (1967), dessen Darstellung der Moderne auf der Verschiebung von tradierten Gattungsgrenzen basiert. Solche Aufhebung gültiger Annahmen sei evident im Parametrizismus, der unseren Begriff von Architektur ablöse. Ole Fischer geht in „Form. Finden. Fragen?“ von Lynns Text „Animate Form“ (1999) aus, um Parallelen, Unterschiede und Kontinuitäten von analog-abbildender und parametrisch-generativer Architektur zu diskutieren. Die digital specificity zwischen Geschichte, Evolutionsbiologie und Theorie ist weniger Bruch als Fortsetzung, die sich um Aspekte wie digitale Materialität erweitern lässt. Mirko Becker entwickelt in „Von einer Ästhetik der Kybernetik zum maschinellen Sehen“ den Gedanken, dass Architekturwahrnehmung als Integral visueller Komplexität denkbar wird. Die Space Syntax von Bill Hillie baute in den 1970er Jahren auf der Analyse sich im Raum wandelnder Gesichtsfelder auf. Als Bildanalyseverfahren kann es in Echtzeit die Komplexität eines Raumes bestimmen. Das Integral solcher Sequenzen ist eine räumliche Wahrnehmung über bislang klassifizierte Elemente und Muster hinaus. Revolutionieren die Technologien die Wahrnehmung räumlicher Komplexität?