Omni-Referenz: Deine Bilder, deine Regeln - dank Midjourney 7
Ob Lieblingscharakter oder Wunschobjekt: Mit einem Klick landet alles exakt so im Bild, wie ihr es wollt. Wie ist das möglich?

Flux Schnell | All-AI.de
EINLEITUNG
KI-generierte Bilder galten lange als Spiel mit Wahrscheinlichkeiten – mal genial, mal willkürlich. Jetzt bringt Midjourney mit der neuen „Omni-Referenz“-Funktion ein Werkzeug auf den Tisch, das diese Unberechenbarkeit zähmt. Designer und Kreative sollen damit einzelne Bildelemente gezielt in ihre Prompts einbauen können – Charaktere, Objekte, ganze Bildwelten. Doch wie präzise ist dieses Werkzeug wirklich? Und wie verändert es den kreativen Prozess?
NEWS
Gezielte Kontrolle statt Zufall: Das Prinzip der Omni-Referenz
Die neue Funktion ersetzt nicht nur die frühere „Character Reference“, sondern hebt sie auf ein ganz neues Level. Ob Mensch, Tier oder Maschine – alles, was sich visuell beschreiben lässt, kann nun direkt in die generierten Bilder eingefügt werden. Der Nutzer sagt der KI nicht mehr nur, was er will – sondern zeigt es ihr. Die Anweisung lautet im Grunde: „Dieses Objekt, genau so, bitte ins neue Bild.“ Eine kreative Punktlandung – zumindest in der Theorie.
Quelle: Midjourney
So funktioniert’s: Slider, Parameter, URLs
In der Weboberfläche funktioniert das Ganze denkbar einfach: Man zieht ein Referenzbild in das Eingabefeld, legt es im Omni-Bereich ab und stellt mit einem Schieberegler die „Stärke“ des Referenzbezugs ein. Wer lieber mit Discord arbeitet, nutzt `--oref` für das Bild und `--ow` für die Gewichtung. Je höher der Wert (bis maximal 1000), desto stärker wird das Referenzbild übernommen. Für subtile Stilzitate reichen `--ow 25`, für detailgetreue Umsetzung sind `--ow 400` empfehlenswert.
Spannungsfeld zwischen Stil und Kontrolle
Die Sache hat jedoch einen Haken: Je stärker man die Referenz betont, desto mehr gerät man in Konflikt mit anderen kreativen Parametern. `--stylize` (Stilintensität) und `--exp` (experimentelle Gestaltung) beeinflussen ebenfalls die Bildausgabe – und konkurrieren direkt mit der Omni-Referenz. Midjourney warnt davor, einfach blind `--ow 400+` zu verwenden, da es zu Artefakten und Bildfehlern kommen kann. Die Kunst liegt also nicht nur im Prompt, sondern auch im richtigen Feintuning.
Quelle: Midjourney
Mehr ist (nicht immer) mehr: Referenz-Kombinationen
Spannend wird es bei mehreren Referenzen: Zwei Charaktere, zwei Objekte, zwei Bildquellen – all das lässt sich kombinieren, solange die Prompts klar formuliert sind. Wichtig: Die Omni-Referenz funktioniert nicht im neuen Draft-Modus von Version 7. Wer experimentieren will, bleibt also besser im klassischen Setup.
AUSBLICK
Kreativität unter Kontrolle
Die Omni-Referenz markiert einen Wendepunkt für KI-Design: Sie verlagert das kreative Steuer vom Zufall zur gezielten Bildsteuerung. Damit entsteht ein Werkzeug, das den Spagat zwischen algorithmischem Zufall und menschlichem Anspruch neu austariert. Wer gelernt hat, mit Parametern, Prompts und Referenzen zu jonglieren, bekommt eine beispiellose Kontrolle über seine visuellen Werke. Es bleibt die Frage: Werden KI-Bilder damit perfekter – oder nur vorhersehbarer?
UNTERSTÜTZUNG
Hat dir ein Artikel gefallen oder ein Tutorial geholfen? Du kannst uns weiterhelfen, indem du diese Seite weiterempfiehlst, uns auf Youtube abonnierst oder dich per Paypal an den Serverkosten beteiligst. Wir sind für jede Unterstützung dankbar. Danke.
KURZFASSUNG
- Midjourney hat mit der Omni-Referenz eine neue Funktion eingeführt, die gezielte Integration spezifischer Bildelemente erlaubt.
- Nutzer können Referenzbilder verwenden, um Charaktere oder Objekte präzise zu übernehmen, sowohl auf der Website als auch via Discord.
- Die Funktion bietet neue kreative Freiheiten, erfordert aber auch technisches Verständnis für Parameter wie `--oref` und `--ow`.
- Mehrere Referenzen und fein abgestimmte Bildanpassung eröffnen Designern neue Möglichkeiten der Bildgestaltung mit KI.