Wer mit ChatGPT & Co. gute Ergebnisse erzielt, scheitert oft an Bildgeneratoren wie Midjourney oder Stable Diffusion ... und umgekehrt. Warum? Weil Text- und Bildmodelle grundlegend anders mit Prompts umgehen.
In dieser Folge erfahrt ihr die fünf wichtigsten Unterschiede zwischen Prompts für Sprachmodelle (LLMs) und Prompts für Bildgeneratoren. Ihr lernt, warum Bildmodelle auf Fachbegriffe aus Fotografie und Kunst reagieren, warum „ohne Menschen" oft das Gegenteil bewirkt und was es mit sogenannten Negativen Prompts auf sich hat.
Diese Folge ist besonders relevant für euch, wenn ihr KI-Tools im Arbeitsalltag einsetzt und verstehen wollt, warum dieselbe Eingabe je nach Modellfamilie völlig unterschiedliche Ergebnisse liefert.
Übung/Gewinnspiel:
Ich teile ein KI-generiertes Bild auf Instagram und eure Aufgabe ist es, mit dem Wissen aus dieser Folge, so nah wie möglich an den ursprünglichen Prompt zu kommen.
Den Original-Prompt werde ich anschliessend veröffentlichen und den Gewinner damit bekanntgeben.
Folgt mir dazu auf Instagram: marc.pyucation
Themen in dieser Folge: Prompt Engineering, Bildgenerierung, Diffusion Models, Negative Prompts, ChatGPT, Midjourney, Stable Diffusion, DALL-E, Künstliche Intelligenz im Alltag