Wir können uns jetzt anstellen, wie wir wollen. KI ist aus unserem Leben nicht mehr wegzudenken. Als Designer durfte ich ziemlich schnell feststellen, dass KI gekommen ist, um zu bleiben. 

Was lag also näher, als die Möglichkeiten zu erkunden und zu sehen, wo ich sie für meine tägliche Arbeit einsetzen kann. 

Bislang habe ich regelmäßig für freie Arbeiten Shootings mit Models gemacht, um dann die Bilder mit per CGI gestalteten Szenenbildern zu kombinieren. So entstehen Bilder im Stil von ConceptArt Visualisierungen für Filmproduktionen. Der Fantasie sind praktisch keine Grenzen gesetzt.

Wo kann jetzt KI meine Arbeit erleichtern? Mit einfachsten Prompts lassen sich schon Szenen generieren, die atmosphärische und ausgefeilte Settings zeigen. Aber…

Das große „aber“ ist die noch zu dumme KI, die fröhlich Bauteile kombiniert und etwas im „Sinne von…“ erzeugt Text im Bild ist normalerweise krudes Gekrakel.

Technische Gerätschaften halten oft keinem zweiten Blick stand. Autos haben mehrere Lenkräder, Mechaniken sind garantiert funktionsfrei und das genaue Positionieren von Bildobjekten ist noch nicht möglich.

Filigrane Lichtsetzung, wie sie in meinem 3D-Programm möglich ist, ist noch ein ferner Traum.

Macht das etwas? Ehrlich gesagt – kaum.

Wo es um Akkuratesse geht, versagt die KI noch. Wo es um Atmosphäre geht, gibt sie dafür alles.

Das begleitende Bild entstand so, wie ich immer arbeite: Ein echtes Foto von einem echten Model fotografiert in meinem Studio kombiniert mit einem Dieselpunk-Rennwagen in einer Werkstatt.

Passt. Und das Hintergrundbild entstand im Bruchteil der Zeit, die ich normal per CGI benötige.

Wie muss ich mich anpassen? Bei zukünftigen Shootings werde ich wohl dazu übergehen auch ein paar Posen mit der für KI typischen Lichtsetzung zu fotografieren. Wenn das Licht nicht auf Model und Szene gleich ist ist das viel auffälliger, als wenn das Auto mal kein Lenkrad hat.

Wie sind Ihre Erfahrungen mit KI? Setzen Sie Text-to-Bild-KI schon im Alltag ein?