Heute packen wir ein heiß diskutiertes Thema an: Poisoning Attacks (Datenvergiftung) auf große Sprachmodelle (LLMs).Bisher schien es fast unmöglich, riesige Modelle wie GPT-4 oder LLaMA anzugreifen. Neuere Experimente zeigen jedoch, dass nicht der Prozentsatz der manipulierten Daten entscheidend ist, sondern die absolute Zahl.Schon etwa 250 manipulierte Dokumente könnten ausreichen, um ein Modell zu kompromittieren, unabhängig von seiner Größe oder der Menge der sauberen Trainingsdaten.Wir diskutieren das beunruhigende Missbrauchspotenzial. Angreifer könnten über Webarchive schädliche Befehle (wie den Linux-Befehl „RM- RF“, alles löschen) in Trainingsdaten einschleusen. Kritisch wird es, wenn diese manipulierten LLMs später Zugriff auf echte Systeme erhalten.
--------
6:17
--------
6:17
070 - Nano Banana
Nano Banana gegen die Realität: Wir nehmen Googles gehyptes neues Bild-Tool Gemini 2.5 Flash Image (Nano Banana) unter die Lupe. Wie nützlich ist das Werkzeug wirklich?Wir analysieren die starken Kernfunktionen, darunter die Subjekt- oder Charakterkonsistenz über mehrere Bilder hinweg und die konversationelle Bearbeitung (ein kreativer Copilot). Dabei beleuchten wir auch die klaren Schwachstellen: die Unzuverlässigkeit ("Nano Banana Effekt") und die niedrige Auflösung (oft nur ca. 720p).Erfahre, warum Nano Banana für Profis noch kein Profikiller ist, aber durch seine Einfachheit die Bildbearbeitung massiv zugänglicher macht und etablierte Tools herausfordert.
--------
9:01
--------
9:01
069 - Browser Use
KI-Agenten lernen, autonom im Browser zu arbeiten und Ziele, die in natürlicher Sprache formuliert werden, selbstständig zu erfüllen.Wir beleuchten, wie diese KI-Agenten Webseiten verstehen: entweder rein textbasiert durch die Analyse des HTML-Codes, oder visuell mithilfe multimodaler Modelle (MLMs), die Screenshots analysieren. Oft wird für beste Robustheit ein hybrider Ansatz kombiniert.Die Werkzeuge reichen von Google DevTools MCP (Model Context Protocol) für Entwickler über lokale Open-Source-Lösungen wie Nanobrowser, bis hin zum Eigenbau mithilfe von Python-Frameworks wie Langchain und Playwright. Lokale Modelle (z.B. über Olama) können dabei für den Datenschutz genutzt werden.Das Potenzial ist groß für die Automatisierung repetitiver Aufgaben, wie Recherche, Datenextraktion, Formularausfüllung und technische SEO-Analysen.Als größte Herausforderungen gelten aktuell noch die mangelnde Zuverlässigkeit bei sich ständig ändernden Webseiten sowie neue Sicherheitsrisiken wie die Prompt Injection, bei der Agenten unwissentlich bösartige, versteckte Befehle ausführen können.
--------
8:58
--------
8:58
068 - OpenAI DevDays 2025 Keynote
Der OpenAI DevDay 2025 markierte einen fundamentalen Wandel: OpenAI positioniert sich neu als dominanter Plattformbetreiber und strebt danach, das "Windows der KI" zu schaffen.Die wichtigsten Ankündigungen sind:1. Apps in ChatGPT: ChatGPT wird durch das Apps SDK und ein App-Verzeichnis zu einer interaktiven Anwendungsplattform, die direkt die App-Store-Monopole von Apple und Google angreift.2. AgentKit: Eine neue Suite von Werkzeugen, einschließlich des visuellen Agent Builder, soll die Entwicklung autonomer KI-Agenten drastisch vereinfachen und beschleunigen. Dies löste Debatten über die Verdrängung von Startups ("Startup-Killer"-These) aus.3. Codex mit GPT-5: Der KI-gestützte Programmierassistent ist nun allgemein verfügbar und wird von einem spezialisierten GPT-5-Modell angetrieben. Trotz beeindruckender Leistung birgt die Verwendung von Codex erhebliche Sicherheitsrisiken im generierten Code.4. Neue Modelle: Das extrem präzise Premium-Modell GPT-5 Pro wurde mit hohen Preisen ($120 pro 1M Output-Tokens) eingeführt. Die Öffnung der Sora 2 API für Video-Erstellung birgt massive Missbrauchsrisiken, da interne Tests zeigten, dass die Sicherheitsfilter versagen und die Erstellung schädlicher Inhalte ermöglichen.
--------
24:36
--------
24:36
067 - LLMs im Terminal
Die führenden KI-Agenten im Terminal im direkten Vergleich: Wir analysieren Anthropic Claude Code, Google Gemini CLI und OpenAI Codex CLI. Erfahren Sie, wie Claude Code durch kontrollierbares, tiefes Denken für komplexe Problemlösungen überzeugt. Die Gemini CLI bietet mit 1 Million Token das massivste Kontextfenster für die Analyse ganzer Codebasen. Die Codex CLI setzt auf Zuverlässigkeit und Sicherheit durch granulare Genehmigungsmodi. Wir zeigen, wie diese agentenbasierten Werkzeuge das Terminal in eine Kommandozentrale für das moderne Software Engineering verwandeln.
Ein KI-generierter Podcasts rund um die Entwicklung von und mit KI. News, Updates und interessante Hintergrundinformationen für den professionellen Einsatz von KI hinaus. Ohne Hype und Buzzwords.
Die KI-Gilde ist ein Angebot der YnotBetter UG.