
Wenn das letzte Jahrzehnt Designern beigebracht hat, Komplexität zu zähmen, verlangt das Jahr 2026 von ihnen, Unsicherheit zu choreografieren. Generative Systeme können brillant sein (sie können blitzschnell Iterationen produzieren) und gleichzeitig fragil (sie können aufgrund eines geringen Kontexts auch zusammenbrechen). Die Aufgabe besteht nun darin, diese Volatilität in Erfahrungen zu verwandeln, denen Menschen vertrauen, die sie annehmen und zu denen sie zurückkehren.
Zwei Realitäten prägen den Moment:
In der globalen Umfrage von McKinsey für das Jahr 2025 geben 71 % der Befragten an, generative KI regelmäßig zu nutzen. Aber mehr als 80 % sagen, dass sie noch keine unternehmensweite EBIT-Steigerung erzielt haben. Die Botschaft ist klar: Nicht nur Funktionen, sondern auch handwerkliches Können und Disziplin im Betrieb machen Pilotprojekte zu Leistungsträgern.
Was ist also am wichtigsten?
Hier sind sieben wesentliche KI-Fähigkeiten, die wir aus unseren Erfahrungen mit unseren Kunden bei DPM im Umgang mit KI gewonnen haben und die unserer Meinung nach jeder moderne Designer benötigt, um im Jahr 2026 und darüber hinaus vertrauenswürdige, wiederholbare und wertschöpfende Erlebnisse zu schaffen:
Was das für Designer bedeutet: Es geht darum, die User Journey zu betrachten und zu entscheiden, welche Teile automatisiert (Effizienz) und welche erweitert (neue Funktionen) werden müssen. Dabei geht es darum, über den Ansatz „Chatbot für alles“ hinauszugehen und das richtige Interaktionsmuster auf der Grundlage des mentalen Modells des Benutzers auszuwählen.
Konkretes Beispiel: Stellen Sie sich vor, Sie entwickeln eine Plattform für das Gesundheitswesen.
• Das schlechte Muster: Sie zwingen den Benutzer, mit einem Bot zu chatten, um einen Platz zu finden.
• Der „Task-Model Fit”-Ansatz: Sie analysieren die Aufgabe. Um einen Termin zu vereinbaren, benötigt der Nutzer eine Struktur, keine Konversation. Sie entwickeln einen KI-Agenten, der im Hintergrund arbeitet, um verfügbare Zeiten abzufragen und die Buchung ohne manuelles Eingreifen zu bestätigen. Für die Diagnosephase verwenden Sie jedoch ein Augmentationsmuster, bei dem die KI potenzielle Anomalien in den Daten hervorhebt, die der Arzt überprüfen kann, sodass der Mensch weiterhin eingebunden bleibt.
Was das für Designer bedeutet: Designer müssen sich vom Entwerfen statischer Bildschirme hin zum „Festlegen der Regeln, nach denen diese generiert werden” verlagern. Eine Eingabeaufforderung ist im Wesentlichen eine Funktionsspezifikation oder eine Komponentendefinition; sie erfordert Versionskontrolle und präzise Einschränkungen, um sicherzustellen, dass sich die KI innerhalb der Benutzeroberfläche vorhersehbar verhält.
Konkretes Beispiel: Sie entwerfen die Funktion „Reiseplaner” einer Reise-App.
• Die alte Methode: Sie erstellen in Figma einen Entwurf für einen Bildschirm mit einer „perfekten“ Reiseroute.
• Der „Prompt Craft“-Ansatz: Sie schreiben einen „Mikro-Brief“ für das Modell, der als Spezifikation dient. Sie definieren die Einschränkungen: „Rolle: Reisebüro. Ausgabeformat: JSON-Liste. Einschränkungen: Muss Transitzeiten enthalten; keine geschlossenen Veranstaltungsorte vorschlagen.“ Sie behandeln diesen Textprompt wie eine Komponente in Ihrem design system vorschreibt, wie sich der Agent verhält, wenn er im Namen des Benutzers handelt.
Was das für Designer bedeutet: Statische Wireframes können die „Latenz, Varianz und Fehler“ der KI nicht erfassen. Designer müssen KI-Tools verwenden, um ihre eigenen Prototypen zu programmieren und zu testen, ob Nutzer tatsächlich mit dem Ergebnis „herumspielen“ wollen oder einfach nur möchten, dass es fertiggestellt wird.
Konkretes Beispiel: Sie entwickeln ein Bildbearbeitungsprogramm.
• Die alte Methode: Sie erstellen einen Klick-Prototyp, bei dem die Schaltfläche „Magic Fix“ sofort ein perfektes Bild anzeigt.
• Der Ansatz „modellbewusstes Prototyping“: Sie erstellen einen groben Prototyp unter Verwendung eines realen Modells. Sie stellen fest, dass die Generierung 6 Sekunden dauert (Latenz). Sie erkennen, dass Sie eine Benutzeroberfläche für „risikobegrenzte Experimente“ entwerfen müssen – beispielsweise eine Filteroberfläche, die sich leicht rückgängig machen lässt –, da die Modellausgabe unvorhersehbar ist. Sie entwerfen Ladezustände, die diese spezifische Latenz verwalten, anstatt einen generischen Spinner zu verwenden.

Was das für Designer bedeutet: Es geht darum, für „elegante Fehler“ zu designen. Wenn die KI in eine Sackgasse gerät, sollte die Benutzeroberfläche nicht zusammenbrechen, sondern eine manuelle Ausweichmöglichkeit bieten. Designer müssen vermeiden, bei der Einweisung zu viel von der „Magie der KI“ zu versprechen, da dies bei den Nutzern zu Enttäuschungen führen kann.
Konkretes Beispiel: Sie entwickeln eine Funktion zum Markieren von Fotos.
• Der Fehler: Die KI erkennt einen Freund nicht, weil dieser der Kamera den Rücken zugewandt hat.
• Speichern mit „Vertrauenskalibrierung“: Anstatt einen allgemeinen Fehler anzuzeigen, hebt die Benutzeroberfläche die Person hervor und fragt: „Ist das John?“ oder stellt ein manuelles Tagging-Tool zur Verfügung. Sie verwenden Texte, die Grenzen kommunizieren, wie z. B. „Hier sind die Personen, die wir gefunden haben“, anstatt „Wir haben alle Personen identifiziert“, um sicherzustellen, dass das mentale Modell des Benutzers mit den tatsächlichen Fähigkeiten des Systems übereinstimmt.
Was das für Designer bedeutet: Designer müssen Mechanismen für „gemeinsames Lernen“ schaffen, bei denen das System durch Benutzerinteraktionen lernt. Dazu müssen klare implizite Feedback-Schleifen (durchgeführte Aktionen) und explizite Feedback-Schleifen (Bewertungen/Einstellungen) entworfen werden.
Konkretes Beispiel: Sie entwickeln eine Musik-Streaming-App.
• Die alte Methode: Sie messen den Erfolg anhand der „Zeit, die Sie mit Zuhören verbracht haben“.
• Der „Close-the-Loop”-Ansatz: Sie entwerfen spezifische UI-Steuerelemente für Feedback.
◦ Explizit: Eine Oberfläche zum Verwalten von Interessen, in der Benutzer Genres auswählen können.
◦ Implizit: Wenn ein Benutzer einen Song innerhalb von 10 Sekunden überspringt, behandelt die Benutzeroberfläche dies als negatives Signal, um das Modell zu aktualisieren. Sie gestalten die Benutzeroberfläche so, dass deutlich wird, warum sich eine Empfehlung aufgrund dieser Eingabe geändert hat.
Was das für Designer bedeutet: Hier geht es um „Trust Design“. Dabei geht es darum, zu verhindern, dass Nutzer KI mit Menschen verwechseln (Anthropomorphismus), und sicherzustellen, dass der Nutzer versteht, warum die KI so gehandelt hat (Erklärbarkeit).
Konkretes Beispiel: Sie entwerfen einen Kundensupport-Chat.
• Das Risiko: Sie verwenden die Ich-Form („Ich kann Ihnen dabei helfen“), wodurch der Nutzer davon ausgeht, dass der Bot über ein Verständnis auf menschlichem Niveau verfügt, was zu Frustration führt, wenn er versagt.
• Der „Disclosure UX”-Ansatz: Sie verwenden visuelle Beschriftungen und spezifische Texte, um das System als automatisiertes System zu kennzeichnen. Sie erklären den Nutzen („Ich kann unsere Datenbank nach Antworten durchsuchen”) und nicht die Technologie („Ich bin ein LLM”). Sie stellen sicher, dass der Benutzer genau weiß, wann er von einem KI-Agenten zu einem menschlichen Agenten wechselt.
Was das für Designer bedeutet: Designer müssen strategische Kennzahlen definieren, die über das „Engagement“ hinausgehen. Leistungsstarke Teams validieren Modellausgaben mit menschlichen Überwachungsprozessen. Das bedeutet, dass Arbeitsabläufe entworfen werden müssen, in denen Menschen die Arbeit der KI überprüfen und die „Bearbeitungsrate“ oder „Korrekturrate“ messen.
Konkretes Beispiel: Sie entwickeln ein internes Tool zur Erstellung von Marketingtexten.
• Die alte Metrik: „Anzahl der generierten Wörter“.
• Der bessere Weg: Sie definieren Erfolg anhand der „Bearbeitungsdistanz“, d. h. wie viel musste der Mensch am Entwurf der KI umschreiben? Wenn die Bearbeitungsrate hoch ist, ist die UX (oder die Eingabeaufforderung) fehlerhaft. Sie gestalten den Workflow neu, um vor der Veröffentlichung einen speziellen Schritt zur „menschlichen Validierung“ einzufügen.
Mit Blick auf das Jahr 2026 verlagert sich der Fokus der Branche von der Neuheit des „Einsatzes von KI” hin zur Disziplin ihrer Skalierung. Die sieben oben beschriebenen Fähigkeiten, von Mustererkennung bis hin zur Metrikkompetenz, bilden die Brücke zwischen experimentellem Spiel und professioneller Leistung.
Die Aneignung dieser Fähigkeiten erfordert jedoch mehr als nur das Erlernen neuer Software; sie erfordert eine grundlegende Neubewertung Ihrer Designphilosophie. Wenn Sie Ihr Team auf die nächste Innovationswelle vorbereiten, sollten Sie sich folgende Fragen stellen:
• Automatisieren Sie die richtigen Aufgaben? Nutzen Sie KI lediglich, um Assets schneller zu produzieren, oder lagern Sie taktische Arbeiten strategisch aus, um Zeit für komplexe, human-centric zu gewinnen, die Maschinen nicht lösen können?
• Ist Ihr Design fehlertolerant? Wenn das Modell unweigerlich an seine Grenzen stößt, bietet Ihre Benutzeroberfläche dann einen „eleganten Ausfall”, der das Vertrauen der Nutzer stärkt, oder haben Sie „Magie” versprochen, die die Nutzer im Stich lässt, wenn die Illusion zerbricht?
• Sind Sie bereit für das Zeitalter der „Agenten“? Fast ein Viertel aller Unternehmen setzt bereits KI-Agenten ein. Sind Sie bereit, Systeme zu entwickeln, die nicht nur auf das menschliche Auge zugeschnitten sind, sondern auch den strukturierten Datenanforderungen von KI-Vermittlern entsprechen, die im Namen Ihrer Nutzer agieren?
• Wer überprüft die Arbeit? Haben Sie klare Validierungsprozesse mit menschlicher Beteiligung eingerichtet, um Verzerrungen und Genauigkeit zu überprüfen, oder lagern Sie Ihr kritisches Denken an den Algorithmus aus?
In einer Zeit unendlicher Iterationen, die durch KI ermöglicht werden, hat der menschliche Designer nach wie vor das letzte Wort in Bezug auf Qualität und Absicht. Der Unterschied zwischen einem Produkt, das frustriert, und einem, das begeistert, liegt darin, ob Sie sich dafür entscheiden, diese Modelle einfach nur einzusetzen oder aktiv mit der Unsicherheit umzugehen, die sie mit sich bringen, indem Sie Kontext und Absicht berücksichtigen.

Anja Stork ist Leiterin der Abteilung UXD und KI-Strategin bei DieProduktMacher , wo sie an der Schnittstelle zwischen menschlicher Kreativität und maschineller Intelligenz tätig ist. Als Service Design konzentriert sich Anja darauf, wie KI Organisationen und die Zukunft der Arbeit grundlegend verändert. Sie leitet strategische KI-Initiativen, die den Schwerpunkt auf die Zusammenarbeit zwischen Mensch und KI legen, und entwirft Serviceerlebnisse, die Innovationen anregen und eine sinnvolle Transformation der Kundenerfahrung vorantreiben. Mit fundiertem Fachwissen in den Bereichen Unterhaltung, Gesundheitswesen und Unternehmenssoftware setzen sich Anja und ihr Team dafür ein, conscious digital products zu entwickeln, conscious digital products KI integrieren, um positive, weitreichende Auswirkungen zu erzielen.
Sind Sie bereit, die Lücke zu schließen? Kontaktieren Sie uns, um zu erfahren, wie Sie KI für 2026 durch eine maßgeschneiderte KI-Bereitschaftsbewertung nutzen können: Anja.Stork@produktmacher.com