In der "Deus Ex Machina? – KI-Tools im Test"-Reihe stellen wir euch verschiedene Tools vor, die mithilfe von Künstlicher Intelligenz Schreib‑, Design- und Rechercheprozesse vereinfachen sollen. Mehr zur "Deus Ex Machina?"-Reihe gibt es hier.
Im Überblick
Designs.ai ist ein KI-basiertes Designtool der Firma Inmagine Lab, das Logo‑, Video- und Grafikerstellung umfasst. Zudem beinhaltet das Programm die Möglichkeit, von einem Textgenerator Texte per Eingabeprompt erstellen zu lassen oder bereits geschriebene Texte mit einem Audiogenerator zu vertonen. Nutzer:innen können dabei aus über zwanzig Sprachen – unter anderem Deutsch – und mehreren Sprecher:innen-Optionen je Sprache auswählen.
Der Aufbau des Logo- und Designtools erinnert in seiner Struktur und seinem Userdesign an die bekannte Designsoftware Canva. Für Logos werden auf Basis eines inhaltlichen Inputs Designvorschläge erstellt. Diese Option fehlt beim Designmaker, bei dem ausschließlich aus bereits bestehenden Templates Vorlagen ausgewählt und anschließend bearbeitet werden können. Für zusätzlichen Input können Nutzer:innen Vorschläge einholen, welche Farben und Schriftarten gut zusammenpassen.
Für besonders gute Ergebnisse, insbesondere für den Copywriter, sind möglichst detailliert ausformulierte Prompts ein Muss. Je mehr Informationen das Tool zur Zielgruppe, dem Verwendungszweck sowie Stichworten, die im Text vorkommen sollen, hat, desto besser ist das Ergebnis. Aus diesem Grund lohnt sich die Kombination mit Angeboten wie Perplexity AI oder dem Bing Chatbot, die zusätzliche Informationen für Prompts liefern können. Mit RATH von Kanaries Data (ein Datenanalyse- und ‑visualisierungstool), können zudem Datenvisualisierungen für Informationsmaterialien mit Designs.ai erstellt werden.
Inmagine Lab vermarktet Designs.ai besonders an Grafikdesigner:innen und Kommunikationsabteilungen. Im Vergleich zu anderen KI-Tools ist Designs.ai bisher aber noch weitgehend unbekannt – zumindest, wenn man die Followerzahlen des Unternehmens auf Social Media mit denen von OpenAI, der Firma aus deren Haus ChatGPT stammt, oder dem Online-Designtool Canva vergleicht.
Die KI hinter der Anwendung
Künstliche Intelligenz generiert aus den Angaben, die Nutzer:innen dem jeweiligen Tool geben, mehrere Designvarianten und Vorschläge, wie diese weiter bearbeitet werden können. In den Tools von Designs.ai, die mit geschriebener oder gesprochener Sprache arbeiten, wird maschinelles Lernen eingesetzt, um Texte basierend auf einem Prompt zu generieren (ähnlich wie bei ChatGPT, allerdings ohne die Chatfunktion) und zu vertonen.
Designs.ai wird mit "Inmagine Brain" betrieben, einem KI-Produkt der Firma Inmagine Ltd. Die Software ist käuflich erwerbbar zum Einbau in eigene Websites und Online-Angebote. Die Website gibt keinen Hinweis darauf, auf Basis welcher Daten "Inmagine Brain" trainiert wurde. Es wird lediglich darauf hingewiesen, dass vergangene Suchanfragen von Nutzer:innen ausgewertet werden, um künftige Suchanfragen präziser auszuführen und dass Natural Language Processing und Image Analysis im Auswertungsprozess vorkommen – so ein Hinweis im Website-Abschnitt "Services". In den FAQs von Designs.ai wird erläutert, dass die Designtools auf einem Language Model basieren, das auch Bilder und Videos auf enthaltene Elemente auswerten und relevanten Textpassagen in einem Skript zuweisen kann.
Das rhetorische Potenzial des Tools
Auf der Startseite verspricht Designs.ai, dass es möglich sei, innerhalb von zwei Minuten Logos, Videos und mehr zu erstellen. Kann das Programm das Versprechen halten?
Die Antwort: Kommt darauf an. Je höher der eigene Anspruch und je komplizierter die Anforderungen, desto länger wird auch die Bearbeitung brauchen. Auf Textprompts reagiert das Texterstellungstool schnell und Anpassungen an Textsorte und Level an Kompliziertheit sind möglich, allerdings benötigt man oftmals mehrere Versuche, bis der Prompt für den Textgenerator in genau dem richtigen Text umgesetzt wird.
Wie man im Beispiel sieht, ist der von dem Generator ausgegebene Text in sich logisch aufgebaut und von Rechtschreibung und Zeichensetzung her stimmig – auch wenn der gewünschte Part zur chemischen Reaktion von der Text-KI übersprungen wurde. Zudem ist der Text sehr allgemein formuliert (was auch bei anderen Prompts der Fall war) und geht inhaltlich nicht in die Tiefe. Und wie bei anderen Textgenerierungstools auch ist die inhaltliche Richtigkeit nicht garantiert – was die Nutzer:innen dazu zwingt, die Inhalte zu überprüfen. Hinzu kommt, dass der Textgenerator die Quellen für seine Informationen nicht angibt und auch Inmagine Ltd. die Trainingsdaten bisher nicht offengelegt hat.
Positiv anzumerken ist, dass die Anpassung auf die Zielgruppe "sechste Klasse" vom Tonfall und Schwierigkeitsgrad des Textes funktioniert. Je nach Prompteingabe kommen allerdings Wiederholungen im Text vor – wie auch im Beispiel hier mit der "dome-shaped structure" –, um eine Überarbeitung des Textes kommt man daher sicher nicht herum. Zudem kann der Textgenerator nicht auf Informationen aus dem Internet zurückgreifen. Das hat zur Folge, dass neuere Ereignisse und komplexere Informationen nicht automatisch von der KI umgesetzt werden können und im Prompt enthalten sein müssen. Der sprachliche Ton innerhalb eines Textes bleibt jeweils auf einem vergleichbaren Level. Für Personalisierung der Texte oder die Implementierung eines eigenen Schreibstils ist hier nur wenig Spielraum gegeben, Schreibende müssen dies in einem zweiten, manuellen Schritt anpassen. Und dies alles vor dem Hintergrund, dass der Textgenerator nicht im Chat verwendet werden kann, sondern jedes Mal einen neuen Prompt fällig ist.
Ist man zufrieden mit dem Text, kann man diesen über die Grafikerstellungsfunktion oder das Videoerstellungstool weiterverwenden. Bei der Videoerstellung wird zuerst der Text eingegeben (für diesen Versuch ist der Eisvulkantext aus dem ersten Beispiel die Grundlage für das Video), der anschließend mit einem automatisch generierten Voice-over vorgelesen wird. Anschließend wählt man aus verschiedenen Kategorien die Funktion aus, für die das Video erstellt wird: Bildung, Werbung, Baubranche und andere mehr. Für den Eisvulkantext hat der Generator die Themenfelder Baubranche oder Fortbewegung als passende Kategorien vorgeschlagen – beide passen freilich nicht zum Text. Nach der Auswahl von Sprache und Stimme erstellt das Programm einen Videovorschlag mit bereits ausgewählten Sequenzen und einer Hintergrundmusik.

Das Tool geht dabei so vor, dass pro Satz ein neuer Clip gezeigt wird. Wie man aus den im unteren Abschnitt eingeblendeten Clips sieht, orientiert sich die KI dabei an bestimmten Stichwörtern im Satz und sucht dazu passende Clips – die aber nicht immer den Gesamtkontext des Videos treffen. Wie man an den am unteren Bildrand eingeblendeten Clips erkennen kann, hat das Tool sich für die ersten drei Clips auf Worte wie "Jupiter" oder "Wasser" konzentriert, für den vierten auf "Prozess" – wodurch das Programm den Clip mit den Klebezetteln als für das Thema "Eisvulkane" passend befunden hat. Auch hier ist also manuelles Nachschärfen notwendig.

Eine Stimmung oder gar Emotionen durch Bilder, Musik oder bestimmte Formulierungen in die mit Designs.ai erstellten Produkte einfließen zu lassen, ist ein Prozess, der weitgehend manuell gesteuert werden muss. Anhand der Design- und Videovorlagen finden sich je nach Anlass passende Templates und zusätzliche Vorschläge, wie diese erweitert werden können. Anders als beim Videomaker gibt man der KI beim Erstellen von Designs aber keinen Textinput, bevor man die Templates auswählt. Für Videos gibt es die Option, diese mit Musik zu unterlegen und Schrift- und Farbwahl wie gewünscht anzupassen. Für das Eisvulkan-Video kam zum Beispiel noch ein mit "Space" betitelter Track dazu, der an die Musik aus Planetariums-Dokumentarfilmen erinnert. Dadurch sollte der Zweck des Videos (Informationen auf einfache und anschauliche Weise vermitteln) und die Faszination für das Thema transportiert werden.
Einsatz in der Wissenschaftskommunikation
Als eine potenzielle Zielgruppe nennt Designs.ai "Educators": "Ergänzen Sie Unterrichtspläne mit ansprechenden Folien, Postern und Videos, um Ihre Schüler zu begeistern." (Übersetzung aus dem Englischen mit DeepL) heißt es auf der Startseite. Lehrkräfte sind aber nicht die einzige Zielgruppe des Unternehmens.
Für Wissenschaftskommunikator:innen, die in den Sozialen Medien aktiv sind, steht ein breites Angebot an Social-Media-Templates bereit, die zur Erstellung von Anschauungsmaterial genutzt werden können. Andere Tools können zum Branding von Wissensvermittlungsprojekten eingesetzt werden, zum Beispiel durch die Erstellung von Logos, oder um einen einheitlichen Look für Kampagnen zu kreieren.
Reviews zu Designs.ai loben die einfache Bedienbarkeit und die Breite des Angebots. Durch die Verbindung zum Stockfoto-Unternehmen 123RF haben Nutzer:innen eine breite Auswahl an Bild- und Videomaterial, das in die eigenen Projekte mit aufgenommen werden kann.
Ein Kritikpunkt ist, dass die Text-zu-Stimme-Verarbeitung oft noch unnatürlich klingt und dass Designs.ai bisher nur webbasiert unterstützt wird und nicht als App. Zudem ist die Website zum Teil fehlerbehaftet und langsam in der Ausführung der KI-gestützten Design- und Schreibprozesse. Da hier nur mit der freien Version getestet wurde, war die Anzahl der Prompts und Templates, die verwendet werden konnten, limitiert.
Wrap-up
"Erstelle Logos, Videos, Banner, Mockups mit KI in nur 2 Minuten": Dieses Versprechen will Designs.ai auch für Nutzer:innen ohne Vorkenntnisse halten. Was für das Tool spricht, ist die Schritt-für-Schritt-Anleitung der einzelnen Designabläufe. Dadurch entstehen aber zunächst generisch aussehende Produkte, die oft derselben visuellen Formel folgen. Wer also ein indivduelles Ergebnis haben will, muss definitiv deutlich mehr als zwei Minuten aufbringen.
Wünschenswert wäre sicherlich noch, dass die KI so weitertrainiert wird, insbesondere bei der Videoerstellung verstärkt auf den gesamten Kontext eines Textes zu achten, statt ausschließlich einzelne Sätze auszulesen. Das würde den Schaffensprozess enorm verkürzen. Auch die Option, ein eigenes Voice-over in den Videomaker mit einzubeziehen, wäre eine sinnvolle Erweiterung. So würden die entstehenden Videos persönlicher klingen und besser auf die individuellen Bedürfnisse von Wissenschaftskommunikator:innen angepasst werden. Und besonders wünschenswert wäre natürlich noch, dass die Trainingsdaten für die KI und ihre Herkunft offengelegt werden.