Skip to main content
AI Tool Radar
How-to

KI-Bilder in Canva: Warum 80 % der Ergebnisse Muell sind und wie Sie die 20 % treffen

Canvas Magic Media ist das KI-Bildtool, das die meisten Menschen tatsaechlich nutzen, weil es schon in ihrem Workflow steckt. Es ist auch das, das die meisten falsch einsetzen. Das ist der Unterschied zwischen brauchbaren Ergebnissen und Muell.

5 min read2026-04-08Von Roland Hentschel
canvaki bildermagic mediaprompt engineeringdesign workflows

Das Tool, das alle haben, falsch benutzt#

Canvas Magic Media ist nicht der beste KI-Bildgenerator am Markt. Midjourney schlaegt es bei aesthetischer Qualitaet, Leonardo.ai bei kreativer Kontrolle, und rohes Stable Diffusion bei Flexibilitaet.

Aber Magic Media ist das, was die Menschen tatsaechlich nutzen. Es ist schon im Design-Tool, das sie schon haben. Die Huerde, es auszuprobieren, ist null, weshalb es fuer mehr taegliche KI-Bildgenerierungen verantwortlich ist als jedes andere Tool, das ich kenne.

Und der meiste Output ist schlecht. Nicht weil das Modell schlecht ist, sondern weil Menschen es wie einen Spielautomaten nutzen. Sie tippen einen Satz, druecken Generate, lehnen das Ergebnis ab, probieren es erneut. Nach fuenf Runden geben sie auf und nehmen ein Stockfoto.

Das ist, was die Menschen, die konstant brauchbare Bilder aus Canva bekommen, anders machen.

Das Grundproblem: Prompt als Wunsch#

Die meisten Canva-Prompts sehen so aus:

professionelle Geschaeftsfrau am Laptop laechelnd

Das ist ein Wunsch, kein Prompt. Das Modell hat kein spezifisches mentales Bild zum Rendern, also waehlt es den statistischen Durchschnitt aller Bilder, die mit "Geschaeftsfrau am Laptop" getaggt sind. Dieser Durchschnitt ist furchtbar. Stockfoto-Look, ueberbelichtet, seltsam proportioniert, generisches Laecheln.

Der erste Fix ist einfach. Hoeren Sie auf, das Subjekt zu beschreiben. Beschreiben Sie die Szene.

Eine Frau Ende 30 sitzt an einem Holzschreibtisch am Fenster, Morgenlicht, legerer Blazer, halb-laechelnd in Richtung Laptop-Bildschirm, Kaffeetasse im Vordergrund, leicht unscharfer Hintergrund mit Pflanzen

Der Unterschied ist nicht die Laenge. Es ist, dass jedes Substantiv jetzt arbeitet. Das Wort "Frau" ist zu vage. "Frau Ende 30" grenzt es ein. "Holzschreibtisch am Fenster" setzt eine Szene, nicht nur eine Person. "Morgenlicht" setzt die Farbtemperatur. Jedes Detail schiebt das Modell Richtung eines spezifischen Bildes.

Der zweite Fix: Negativraum#

Canva hat keinen expliziten Negativ-Prompt wie Midjourney. Aber Sie koennen dem Modell trotzdem sagen, was es nicht tun soll, einfach in Alltagssprache am Ende.

... Vermeiden: Stockfoto-Aesthetik, perfekte Symmetrie, professionelles Headshot-Licht, ueberweisse Zaehne.

Diese vier Phrasen eliminieren das meiste, was KI-Bilder wie KI-Bilder aussehen laesst. Das Modell respektiert sie nicht immer perfekt, aber die Ablehnungsrate sinkt deutlich, wenn Sie sie einbauen.

Meine aktuelle Standard-Negativliste fuer jeden Personen-in-Szene-Prompt:

  • Stockfoto-Aesthetik
  • ueberglatte Haut
  • symmetrisches Gesicht
  • perfekte Zaehne
  • professionelles Headshot-Licht
  • zu poliert
  • CGI-Look

Der dritte Fix: Stil-Referenz, nicht Stil-Wort#

Prompts mit Stil-Woertern ("cinematisch", "stimmungsvoll", "professionell") produzieren die durchschnittliche Interpretation dieses Wortes. Prompts, die einen spezifischen bekannten Stil referenzieren, produzieren etwas Eigenstaendigeres.

Statt:

cinematisches Portrait eines Kochs

Versuchen Sie:

Portrait eines Kochs, Stil-Referenz: Editorial-Fotografie in einem Monocle-Magazin-Feature, leichtes Filmkorn, gedaempfte Erdtoene, natuerliches Fensterlicht

"Monocle-Magazin" arbeitet. Das Modell hat diesen exakten Stil oft gesehen, weil Monocles visuelle Identitaet konsistent und weit indexiert ist. Der Output landet naeher an dieser Referenz, was ihn bewusster, weniger generisch wirken laesst.

Sie koennen das Gleiche mit Fotografen, Jahrzehnten, Filmmaterialien oder spezifischen Cinematography-Referenzen tun. "Shot on Portra 400" produziert anderen Output als "Film-Look". "Beleuchtet wie ein Wes-Anderson-Interieur" produziert anderen Output als "symmetrisches Interieur".

Der vierte Fix: Seitenverhaeltnis und Framing#

Canva laesst Sie Seitenverhaeltnisse setzen. Die meisten ignorieren das. Das ist ein Fehler.

Das Seitenverhaeltnis ist Teil der Komposition. Ein 16:9-Querformat produziert andere Kompositionen als 1:1 Quadrat oder 9:16 vertikal. Das Modell weiss das, und das Ergebnis aendert sich bedeutsam.

Wenn Sie das Bild fuer einen Instagram-Post wollen, generieren Sie es in 1:1. Wenn es fuer ein Blog-Hero ist, generieren Sie es in 16:9. Generieren Sie nicht in einem Verhaeltnis und schneiden in einem anderen. Der Crop sieht immer wie ein Crop aus.

Ich baue auch Framing-Anweisungen explizit in den Prompt: "Halbtotale, bis zur Huefte", "Close-up auf die Haende", "weite Environmentale, Subjekt klein im Bild". Die schieben das Modell weg von seiner Standard-Close-up-auf-Gesicht-Neigung, was so viele Canva-Outputs gleich aussehen laesst.

Der fuenfte Fix: Iteration statt Wiederholung#

Wenn eine Generierung nah dran, aber nicht ganz richtig ist, klicken die meisten Generate nochmal mit demselben Prompt. Das ist der schlechtestmoegliche Zug. Sie bekommen ein anderes Bild mit denselben Problemen.

Der richtige Zug ist, den Prompt zu iterieren. Identifizieren Sie das spezifische Ding, das falsch ist ("das Licht ist zu hart", "das Gesicht sieht CGI aus", "die Komposition ist zu zentriert"), und fuegen Sie einen Satz zum Prompt hinzu, der das adressiert.

... natuerliches diffuses Fensterlicht, keine harten Schatten im Gesicht.

Jede Iteration sollte einen Constraint hinzufuegen, nicht den ganzen Prompt umschreiben. Das laesst Sie auf das Bild triangulieren, das Sie tatsaechlich wollen.

Wo Canva immer noch schlecht ist#

Auch mit allen fuenf Fixes hat Canvas Magic Media echte Grenzen. Ich wuerde es nicht nutzen fuer:

  • Haende, die spezifische Aktionen ausfuehren (immer noch Fehlerrate um 50 Prozent)
  • Text im Bild ueber sehr kurze Woerter hinaus
  • Exakte Markenfarben (das Modell approximiert)
  • Fotorealistische Produkte, bei denen das Produkt erkennbar sein muss

Dafuer nutze ich entweder Leonardo.ai oder Midjourney und bringe den Output zurueck in Canva fuer das Layout.

Die zugrundeliegende mentale Verschiebung#

Der Unterschied zwischen den 20 Prozent Canva-Nutzern, die guten Output bekommen, und den 80 Prozent, die das nicht tun, ist eine Sache: den Prompt als Briefing behandeln, nicht als Anfrage.

Ein Briefing hat ein Subjekt, eine Szene, eine Stimmung, eine Referenz, Constraints und Dinge zu vermeiden. Eine Anfrage hat ein Substantiv und ein Adjektiv.

Sie wuerden nie einen Fotografen mit der Anfrage "professionelle Geschaeftsfrau am Laptop laechelnd" beauftragen. Sie wuerden ihm ein Briefing mit all den Details oben geben. Magic Media funktioniert genauso. Die Qualitaet, die Sie rausbekommen, ist direkte Funktion der Spezifitaet, die Sie reingeben.

Fuer einen breiteren Ueberblick, wo Canva in die KI-Design-Landschaft passt, siehe den Canva-AI-Guide. Aber die kurze Version ist: Es ist ein gut-genug-Tool, das von den meisten Menschen schlecht genutzt wird. Nutzen Sie es wie ein Fotograf, nicht wie einen Spielautomaten.


Roland Hentschel

Roland Hentschel

AI & Web Technology Expert

Web developer and AI enthusiast helping businesses navigate the rapidly evolving landscape of AI tools. Testing and comparing tools so you don't have to.

Weitere Beiträge aus dem Blog