Inhaltsverzeichnis

Alle Kapitel aufklappen
Alle Kapitel zuklappen
Vorwort
9
TEIL I KI-Tools verstehen
15
1 Einführung
17
1.1 Coding per Chat
17
1.2 Codeassistenten
27
1.3 Die Kunst des Prompting
40
1.4 Grundlagen von Large Language Models (LLMs)
48
1.5 LLM-Interna und -Optimierung
63
2 Pair Programming
75
2.1 Die richtigen KI-Tools zum Lernen
76
2.2 Code in Funktionen strukturieren
78
2.3 Beispiel: IBAN-Validierung
88
2.4 Objektorientiert programmieren
95
2.5 Beispiel: Quiz
103
2.6 Beispiel: Sudoku lösen
108
3 Agentic Coding
117
3.1 Agentic Coding in der Software-Entwicklung
117
3.2 Agentic Coding mit Cursor
120
3.3 Die Kernfeatures von Cursor
124
3.4 Der Agentic Coding Workflow
135
3.5 Fazit
146
TEIL II Coding mit KI-Unterstützung
149
4 Debugging
151
4.1 Webapplikationen
152
4.2 App-Entwicklung
162
4.3 Entwicklung am Raspberry Pi
167
4.4 Visual Studio und VSunhbox voidb@x protect penalty @M Code
171
4.5 Fazit
173
5 Refactoring
175
5.1 Einführung ins Refactoring
176
5.2 Refactoring mit KI-Werkzeugen
176
5.3 Best Practices
190
5.4 Wann Sie KI nicht zum Refactoring einsetzen sollten
192
5.5 Fazit
193
6 Software testen
195
6.1 Erzeugen von Testdaten
196
6.2 KI-gestützte Testautomatisierung
200
6.3 Testgetriebene Entwicklung mit KI
207
6.4 Arbeiten mit Abhängigkeiten
213
6.5 Optimieren von Tests
220
6.6 E2E-Tests
226
6.7 Fazit
231
7 Software dokumentieren
233
7.1 Inline-Dokumentation
235
7.2 Funktions- und Klassendokumentation
239
7.3 API-Dokumentation
243
7.4 Veraltete Dokumentation
247
7.5 Fazit
250
8 Datenbanken
253
8.1 Datenbankdesign
254
8.2 SQL-Kommandos
261
8.3 Administration
268
8.4 Datenbank-Handling mit MCP
273
9 Scripting und Systemadministration
279
9.1 Scripting
279
9.2 Reguläre Muster
284
9.3 KI-Hilfe im Terminal mit llm
289
9.4 Systemadministration
292
9.5 Linux-Administration per SSH und KI
297
TEIL III Tools für Profis
305
10 Sprachmodelle lokal ausführen
307
10.1 Die Qual der LLM-Wahl
308
10.2 Vorteile der lokalen Ausführung von Modellen
314
10.3 GPT4All
315
10.4 Ollama
318
10.5 Die Ollama Cloud
324
10.6 Open WebUI für Ollama
325
10.7 Continue
333
10.8 Ollama-API
336
10.9 Tabby
339
10.10 Fazit
341
11 Der eigene LLM-Server
343
11.1 Hardware
345
11.2 GPU-Bibliotheken, Treiber und Kernel-Einstellungen
346
11.3 LM Studio
354
11.4 Agentic Coding mit Roo Code
368
11.5 llama-server
371
11.6 Fazit
377
12 Agentic-Coding-CLIs
379
12.1 Einführung
379
12.2 Claude Code
382
12.3 Codex CLI
396
12.4 goose
400
13 MCP und Skills
407
13.1 Tool Calling
408
13.2 Model Context Protocol (MCP)
409
13.3 Skills
428
14 Retrieval Augmented Generation (RAG) und Text-to-SQL
439
14.1 Schnellstart RAG
440
14.2 Das viel-falter-Projekt
445
14.3 Dokumente laden
446
14.4 Index erzeugen
448
14.5 Vector-Store-Datenbanken
452
14.6 RAG-Abfragen
455
14.7 Text-to-SQL
461
15 KI-APIs nutzen
473
15.1 Die API von OpenAI
473
15.2 Die API von Claude
482
15.3 Die API von Gemini
484
15.4 APIs lokaler Modelle
485
15.5 Beispiel: Alt-Texte für eine WordPress-Site generieren
490
15.6 Docker Model Runner
496
16 Risiken und Ausblick
513
16.1 Probleme und Einschränkungen beim Einsatz von KI-Tools
513
16.2 Beispielhaftes KI-Versagen
520
16.3 Ethische Fragen
529
16.4 AI Slop, Vibe Coding und die Zukunft der Software-Entwicklung
535
Index
541