Qt & QML Development
2026-02-24
10 Minuten Lesezeit

Qt AI-Assistent – Tutorial und ehrliche Meinung

Jakub Wincenciak
Jakub Wincenciak Head of Operations

AI, AI, AI – wohin man auch schaut, die gesamte Branche dreht sich um ein einziges Thema. Ist es eine Revolution oder nur ein weiteres Buzzword? Beantwortet euch diese Frage selbst :p

Aber beginnen wir diesen Artikel nicht mit zu viel Philosophieren. Kürzlich kündigte die Qt Company die Einführung des Qt AI Assistant an, eines Plugins für Qt Creator, das die Integration mit einem ausgewählten Large Language Model (LLM) ermöglicht.

Das konnte ich nicht ignorieren, also beschloss ich zu prüfen, wie es in der Praxis funktioniert. Und genau darum wird es in diesem Blogbeitrag gehen. Wenn ihr neugierig seid, wie man es einrichtet, wie es funktioniert und was ich darüber denke, lest weiter.

Was ist Qt AI Assistant?

Qt AI Assistant ist ein Qt-Creator-Plugin, das ein KI-Coding-Tool direkt in die IDE integriert. Es ermöglicht euch, Fragen zu stellen, Code zu generieren und Hilfe zu Qt, C++ oder QML zu erhalten, ohne euer Projekt zu verlassen.

Anstatt in Dokumentationen oder Foren zu suchen, könnt ihr den Assistenten einfach fragen, wie man eine bestimmte Qt-Klasse verwendet, einen Fehler behebt oder ein kleines Stück Code generiert.

Da es direkt in Qt Creator läuft, fügt es sich natürlich in den normalen Qt-Entwicklung workflow ein und macht es schneller, APIs auszuprobieren, zu lernen und Probleme zu lösen.

Ihr könnt es als euren persönlichen KI-Assistenten betrachten, der euch bei den meisten langweiligen Aufgaben hilft ;)

Key Features - künstliche Intelligenz zeigt, was sie kann

Beginnen wir mit den wichtigsten Funktionen des Qt AI Assistant:

  • In Qt Creator integriert – funktioniert als Plugin direkt in der IDE, sodass ihr keine externen Tools benötigt

  • Zugriff auf die beliebtesten LLM-Modelle – integriert Large Language Models, um Antworten, Code und Erklärungen zu generieren.

  • Codegenerierun g – kann Widgets, QML-Komponenten und anderen gängigen Qt-Code generieren

  • Codeerklärung – hilft euch, bestehenden Code zu verstehen, besonders nützlich in größeren oder unbekannten Projekten

  • Fehlerbehebung – erklärt Fehler und schlägt mögliche Lösungen vor, was beim Debugging Zeit spart.

Installation und Einrichtung in Qt Creator

Gut, jetzt wo wir wissen, was es ist, ist es Zeit, Qt AI Assistant zum ersten Mal zu installieren und zu verwenden.

Qt-Lizenzanforderungen

Zum Zeitpunkt der Erstellung dieses Artikels ist Qt AI Assistant nur mit einer kostenpflichtigen Qt-Lizenz verfügbar. Zusätzlich kann es mit einer Bildungslizenz für Studierende genutzt werden.

Installation von Qt AI Assistant

Der erste Schritt besteht darin, die Erweiterungsansicht in Qt Creator zu öffnen und die Option „externe Repositories verwenden“ auszuwählen. Qt AI Assistant befindet sich noch in der Entwicklung, daher ist dies sozusagen eine „Beta“-Version. Nach dem Aktualisieren der Liste der verfügbaren Erweiterungen sucht nach Qt AI Assistant und installiert es.

Installation von Qt AI Assistant

Verbindung mit LLMs – Large Language Models

Jetzt, da wir das Plugin installiert haben, ist es Zeit, das „Gehirn“ für unseren KI-Assistenten auszuwählen, also die Verbindung zu einem LLM. Wir haben eine ganze Reihe von Optionen zur Auswahl, beginnend mit den beliebtesten Modellen wie:

  • Code Llama 13B QML (für Qt 6, ausgeführt in einer Cloud-Bereitstellung eurer Wahl)

  • Code Llama 13B (für Qt 5, ausgeführt in einer Cloud-Bereitstellung eurer Wahl)

  • Codestral

  • Claude 4.0 Sonnet

  • Claude 4.5 Sonnet

  • GPT 5

  • DeepSeek V3.2

  • Code Llama 13B QML über Ollama (lokal auf eurem Computer ausgeführt)

  • Code Llama 7B QML über Ollama (lokal auf eurem Computer ausgeführt)

  • Code Llama 7B über Ollama (lokal auf eurem Computer ausgeführt)

Diese Liste wird in Zukunft sicherlich wachsen. Für den weiteren Verlauf dieses Artikels werde ich GPT5 verwenden, da ich darauf Zugriff habe . In diesem Artikel werde ich mich nicht darauf konzentrieren zu bewerten, ob ein bestimmtes Modell geeignet ist oder nicht, noch werde ich sie miteinander vergleichen. Stattdessen werde ich einen umfassenden Blick auf das Qt AI Assistant-Tool als Ganzes werfen.

Um unser LLM zu verbinden, geht zu „Edit -> Preferences -> AI Assistant“ und wählt im „General“-Tab ein LLM aus der Liste aus und gebt den API-Schlüssel ein (wie ihr euren API-Schlüssel erhaltet, könnt ihr in der API-Dokumentation eures LLM nachlesen). Die restlichen Optionen werde ich später in diesem Blogbeitrag beschreiben.

Verbindung mit LLMs – Large Language Models

Praxis-Tests mit Qt AI Assistant

Gut, es ist installiert – aber was kann es tatsächlich? Gehen wir die wichtigsten Funktionen durch.

Codevervollständigung in Aktion

Die erste wichtige Funktion ist die automatische Codevervollständigung. Um sicherzustellen, dass diese Option aktiviert ist, geht in den Optionen-Tab des Plugins und wählt „Enable automatic code completion“ aus. Alternativ könnt ihr sie aktivieren oder deaktivieren, indem ihr auf die Stern-Schaltfläche mit grünem Hintergrund in der oberen rechten Ecke von Qt Creator klickt.

Codevervollständigung in Aktion

Wenn wir Code schreiben und kurz innehalten, schlägt der KI-Assistent eine Codevervollständigung vor. Das sieht ungefähr so aus – hervorgehobener Code mit grauem Text. Wir können den hervorgehobenen Code mit der Tab-Taste übernehmen oder ihn mit der Backspace-Taste ablehnen. In der Grafik unten seht ihr, wie ich ein leeres Grundgerüst für das Button-Objekt geschrieben habe und die KI mir hervorgehobenen Code vorgeschlagen hat, den ich mit einem einzigen Tastendruck hinzufügen kann. Praktische Sache!

Codevervollständigung in Aktion

Natürlich funktioniert es auch mit C++-Code. Wenn ihr es schneller auslösen möchtet, verwendet die Tastenkombination Strg+'.

Codevervollständigung in Aktion

Mit eurem Code chatten - Prompting

Jetzt ist es Zeit für die zweite Funktion, nämlich die Möglichkeit, ein Fenster mit einem Prompt für das Modell zu öffnen (standardmäßig mit der Tastenkombination Strg+Shift+A oder indem ihr den Code markiert, den ihr abdecken möchtet, und auf das Sternsymbol in der Ecke klickt).

Mit eurem Code chatten - Prompting

Wie ihr sehen könnt, ist das Prompt-Fenster sichtbar, und wir können beginnen, die KI zu bitten, verschiedene Aufgaben zu erledigen.

Mit eurem Code chatten - Prompting

Nachdem das KI-Modell die gesamte Anfrage verarbeitet hat, erhalten wir eine Antwort mit einem Codefragment, das wir per Copy-Paste in unsere Anwendung einfügen können.

Mit eurem Code chatten - Prompting

Smart Commands - Dokumentation, Testfallgenerierung und vieles mehr

Die dritte wichtigste Funktion sind die sogenannten Smart Commands. Dabei handelt es sich um eine Reihe speziell vorbereiteter Befehle, die uns helfen, unsere Arbeit zu beschleunigen. So stehen uns beispielsweise folgende Befehle zur Verfügung:

Smart Commands - Dokumentation, Testfallgenerierung und vieles mehr
  • /doc – Generiert Dokumentation für den ausgewählten Code. Es kann Funktionsbeschreibungen, Parametererklärungen und allgemeine Kommentare erstellen, die anderen helfen zu verstehen, was der Code macht.

  • /explain – Erklärt den ausgewählten Code in einfacher Sprache. Nützlich, wenn man mit unbekanntem Code arbeitet oder versucht, komplexe Logik schnell zu verstehen.

  • /fix – Analysiert den ausgewählten Code und schlägt Korrekturen für Fehler, Bugs oder falsche Muster vor. Es kann auch sauberere oder sicherere Alternativen vorschlagen.

  • /inlinecomments – Fügt Inline-Kommentare direkt im Code hinzu, um zu erklären, was bestimmte Zeilen oder Blöcke tun. Hilft, die Lesbarkeit und Wartbarkeit zu verbessern.

  • /qtest – Generiert Unit-Tests mit dem Qt-Test-Framework (QTest). Es erstellt Testfälle für Funktionen oder Klassen und hilft dabei, die Testabdeckung zu erhöhen.

  • /review – Führt ein Code-Review für den ausgewählten Code durch. Es kann auf potenzielle Bugs, schlechte Praktiken, Performance-Probleme hinweisen und Verbesserungen vorschlagen.

Kontext und Kontexteinstellungen

Ich habe erwähnt, dass ich die zusätzlichen Optionen erklären würde, die Qt AI Assistant einstellen lässt, also gehen wir sie der Reihe nach durch. Bei der Verwendung eines LLM ist es wichtig zu verstehen, was Kontext bedeutet.

Jedes LLM funktioniert ein wenig wie RAM-Speicher – es kann eine bestimmte Menge an Informationen speichern, jedoch nur bis zu einer gewissen Grenze. Normalerweise wählen wir bei der Verwendung von Qt AI Assistant den Codeabschnitt aus, der uns interessiert, und das ist der Kontext. Wenn wir „korrigiere das“ anfordern, weiß der Assistent, dass wir genau diesen bestimmten Codeabschnitt korrigieren möchten.

Kontext und Kontexteinstellungen

Wir arbeiten jedoch häufig an großen Projekten, die viele zusammenhängende Dateien enthalten. Der Assistent muss daher mit ihnen vertraut sein. Zu diesem Zweck ermöglicht die erste Option („Enable context from other files of project“), den Kontext auf andere Dateien im Projekt zu erweitern – wenn wir ihn beispielsweise bitten, einen Bug zu beheben, kann der Assistent mehrere Dateien nachverfolgen und den Code dort korrigieren, wo es erforderlich ist.

Wir können auch die Option „Use only open files as context“ auswählen. Das ist nützlich, wenn wir an einem sehr großen Projekt mit Hunderten von Dateien arbeiten und den Kontextspeicher nicht mit unnötigen Informationen „überladen“ möchten.

Die nächste Option („Use context filtering file .aaignore“) ermöglicht es uns, Filterregeln mithilfe der Datei .aiignore hinzuzufügen. Sie funktioniert ähnlich wie .gitignore. Wenn eine Datei oder ein Pfad darin aufgeführt ist, wird der Assistent sie nicht als Kontext verwenden. Das ist hilfreich zum Schutz vertraulicher Informationen.

Schließlich erlaubt die Option „Use instruction file agent.md“ die Verwendung einer Datei mit Anweisungen und Kontext für den KI-Assistenten innerhalb eines bestimmten Projekts. Darin können Coding-Richtlinien, Projektkonventionen und andere Informationen definiert werden, die dem Assistenten helfen, relevantere und genauere Antworten zu generieren.

Wie gut funktioniert es? Leistung und Genauigkeit der Vorschläge

Wir wissen bereits, wie dieses Tool aus technischer Sicht funktioniert, aber wie sieht es mit der Qualität aus? Nun, zunächst einmal ist das ein komplexes Thema.

Was das Plugin selbst betrifft, funktioniert es gut, aber ehrlich gesagt hätte ich etwas mehr erwartet. Wenn man genauer hinschaut, ist es im Grunde genommen ein Texteingabefeld, in das man eine Anfrage eingibt, und es gibt eine Antwort vom LLM zurück. Nichts besonders Kompliziertes. Ohne übermäßig selbstbewusst zu klingen, denke ich, dass man ein solches Plugin ziemlich schnell selbst schreiben könnte. Und man sollte bedenken, dass dieses Plugin nur in der kostenpflichtigen Version verfügbar ist und man zusätzlich separat für das gewählte LLM bezahlen muss.

Man sollte auch daran denken, dass das gesamte Tool lediglich ein Vermittler zwischen QtCreator und dem Large Language Model ist. Die Geschwindigkeit und Qualität der automatischen Codevervollständigung sowie der Prompt-Antworten hängen vom verwendeten LLM ab.

Es ist unmöglich, eindeutig zu sagen, welches Modell das beste ist. Forschung und Benchmarks laufen weiter, und neue Versionen von KI-Modellen erscheinen so schnell, dass es schwer ist, Schritt zu halten.

Die Vor- und Nachteile

Wir nähern uns langsam dem Ende, also nun vielleicht der interessanteste Teil – nämlich meine persönliche Meinung ;)

Alltägliche Nutzung

Was die tägliche Nutzung betrifft, muss ich zugeben, dass ich dieses Plugin ein wenig verwendet habe, es mir jedoch an Tiefe fehlte. OK, die direkte Integration in QtCreator ist eine nette Ergänzung, aber ich hoffe auf eine Weiterentwicklung dieses Tools.

Es beschleunigt die Arbeit sicherlich und entlastet den Programmierer von mühsamen Aufgaben (Generierung von Dokumentation, Unit-Tests und stilistischem Refactoring) und ermöglicht es ihm, sich auf anspruchsvollere und spannendere Aufgaben zu konzentrieren (Architekturplanung, Arbeit an kritischen Komponenten).

Wenn ich die größten Nachteile nennen müsste, würde ich mich auf drei Hauptpunkte beschränken:

  • Kein Konversationsfenster - Der in Qt AI Assistant integrierte Prompt wird verwendet, um Codefragmente zu korrigieren, aber sobald die Aufgabe erledigt ist, schließen wir ihn. Persönlich würde ich eine Lösung bevorzugen, ähnlich wie bei Cursor / Kiro / GitHub Copilot / anderen KI-Coding-Tools, bei der das Konversationsfenster dauerhaft auf der rechten Seite sichtbar ist und wir einen vollständigen Überblick über die Gespräche haben, nicht nur einzelne Nachrichten.

  • Funktion hinter einer kostenpflichtigen Lizenz verborgen - Was soll ich sagen, in einer Zeit, in der KI für alle immer zugänglicher wird (z. B. hat GitHub Copilot einen kostenlosen Tarif), ist es, den Qt AI Assistant ausschließlich auf eine kostenpflichtige Lizenz zu beschränken, als würde man sich selbst ins Bein schießen. Ich denke, dass die Qt Company dies zu einer kostenlosen Funktion machen sollte, da die meisten Nutzer ohnehin für das LLM bezahlen müssen.

  • Offiziell gehostetes LLM für Qt- + QML-Entwicklung - Qt AI Assistant erfordert die Verwendung fertiger Modelle. Obwohl Code Llama 13B QML entwickelt wurde, erfordert es eigenes Hosting, was für die meisten privaten Nutzer unmöglich ist. Um ein LLM auf einem akzeptablen Niveau zu betreiben, muss man extrem teure Hardware kaufen, die sich nicht jeder leisten kann. Ich denke, wenn die Qt Company ihr eigenes Modell hosten würde, das sie kontinuierlich weiterentwickeln, gäbe es sicherlich Menschen, die bereit wären, für ein Abonnement zu zahlen.

Datenschutz und Sicherheit

Zum Schluss ein sehr wichtiges Thema. Das größte Problem bei LLMs ist, dass sie viel Rechenleistung benötigen. Entweder stellen wir die Hardware selbst bereit (was extrem teuer ist) oder wir nutzen Cloud-Lösungen der größten Unternehmen.

Der Nachteil dabei ist jedoch der Datenschutz und die Datensicherheit. Wir wissen nicht, wie die an die KI gesendeten Daten verwendet oder gespeichert werden. Deshalb rate ich euch, KI mit Vorsicht zu verwenden. Lasst sie uns helfen, lasst sie mit uns Code schreiben, aber lasst sie keine API-Schlüssel oder andere Geheimnisse sehen ;)

Fazit

Habt ihr den Qt AI Assistant bereits getestet? Teilt gerne eure Gedanken mit uns. Ich lade euch auch ein, unsere anderen Artikel zu lesen. Bis bald!

Kontaktieren Sie uns

Wir beantworten jede Anfrage und finden die optimale Strategie für den Erfolg Ihres Projekts.

Füllen Sie das Formular aus, und wir melden uns in Kürze bei Ihnen.

Lukas Kosiński

Lukas Kosiński

Chief Executive Officer

Der Administrator der personenbezogenen Daten ist Somco Software sp. z o.o., ul. Gen. Ottokara Brzoza-Brzeziny 13, 05-220 Zielonka, KRS: 855688. Die personenbezogenen Daten werden verarbeitet, um die im Kontaktformular gestellte Anfrage zu beantworten. Weitere Informationen, einschließlich einer Beschreibung der Rechte der betroffenen Personen, finden Sie in der Datenschutzerklärung .