Zum Inhalt springen
stackschmiede.de
EN
Nawinn Gutzeit
Nawinn Gutzeit · Jahrgang 1984
Über

Nawinn Gutzeit. Erfahrung mit neuem Tempo.

Ich bin Nawinn, Jahrgang 1984, Homebase im Raum Frankfurt am Main. Meinen ersten PC habe ich als Kind auseinandergenommen; mit 16 angefangen zu programmieren. Meine Berufsjahre in der IT waren rund 8-9 Jahre als Anwendungsentwickler und Server-Administrator — unter anderem bei ICOM Computer (das Unternehmen meines Vaters, dort habe ich die Grundlagen der Praxis gelernt), CPC-IT, SDS Informationstechnik und einem Zentrum für Weiterbildung in der IT-Abteilung.

Stack damals: C#, C++, Schnittstellen-Programmierung, Windows-Server, Linux-Backend-Konfiguration, Netzwerk-Einrichtung. Also nicht nur Code — auch das Drumherum, auf dem Code läuft.

Dann kam eine Phase abseits der IT. Aber komplett weg war ich nie: Nebenbei habe ich immer wieder kleine Programme geschrieben, die mir den Alltag erleichtert haben — vom lokalen IP-Scanner über einen RAM-Dump-Helfer bis zu WSL-Klon-Skripten. Technische Entwicklungen habe ich mit Interesse verfolgt: Hetzner als ernstzunehmende AWS-Alternative, lokale LLMs wie Llama 3.3, Astro statt Next.js-Overkill, Flutter statt React Native. Ich war nicht aktiv im Markt — aber nah genug dran, um nicht als Fossil zurückzukommen.

Seit 2025 arbeite ich wieder voll als Entwickler — diesmal mit Claude Code als ständigem Co-Piloten. Das ist kein Gimmick: es ist ein fundamental anderer Arbeitsmodus. Architekturen, die früher einen Zweier-Team-Monat gekostet haben, baue ich heute in zwei Wochen. Nicht weil die KI „das alles kann“, sondern weil sie mich von Boilerplate befreit und ich Zeit habe, das Richtige zu bauen.

Warum „Werkstatt“? Weil Software ein Handwerk ist. Jedes Projekt hat Eigenheiten. Keine industriellen „Sprint-Zyklen“ für Ein-Personen-Projekte — stattdessen durchdachte Arbeitsschritte, saubere Dokumentation, nachvollziehbare Entscheidungen.

Warum „stackschmiede“? Weil ich den kompletten Stack abdecke — vom Server-Setup bis zum UI. Backend, Frontend, Infrastruktur, zunehmend KI-Integration mit lokalen Modellen. Für Urlaubsvertretung und Notfall-Backup habe ich ein kleines Entwickler-Netzwerk im Rücken.

Warum ich das mache

Ich finde es absurd, mit welcher Selbstverständlichkeit personenbezogene Daten heute abgegeben werden — Geo-Locations, Kontakt-Netze, Foto-Inhalte, Zahlungen, Profilbildung in Hintergrund. Diese Daten füttern KI-Modelle, die zunehmend Entscheidungen über uns treffen: Versicherungs-Tarife, Kredit-Scores, vielleicht morgen Job-Bewertungen.

Meine Antwort: privat alles soweit möglich auf eigene Lösungen umgebaut. Eigener Foto-Server, eigener Drive, eigener Messenger, lokale KI, eigene Banking-Aggregation. Genau diese Lösungen biete ich jetzt anderen an. Cloud-Exit ist nicht Verzicht — es ist eine andere Architektur.

Pilot-Konditionen

Offen gesagt: Ich stehe am Anfang meiner Selbstständigkeit. Für die ersten 3-5 Projekte biete ich deshalb Pilot-Konditionen an: fairer Einstiegspreis, dafür die Erlaubnis, das Projekt als öffentliche Referenz zu nutzen (gern mit NDA zu den Kunden-Internas). Danach kehre ich zu regulären Sätzen zurück. Es ist ein bewusstes Win-Win — Sie zahlen weniger, ich baue meine Referenz-Liste auf.

Übrigens — kein Social Media: Sie werden mich nicht auf Instagram, Facebook, X oder TikTok finden. Ich verzichte bewusst — aus genau den Gründen, die Sie auf dieser Website lesen. Erreichbar bin ich per E-Mail, Telefon (auf Anfrage) und über mein GitHub-Profil.

Vier Arbeitsprinzipien

#01

Software wird lang gelesen, kurz geschrieben.

Ich schreibe Code, den die nächste Person — oder ich in 6 Monaten — ohne Rätselraten versteht. Benannte Variablen, dokumentierte Invarianten, kein Magie-Code. Genau das, wofür KI-Assistenten nicht gemacht sind: sauberen, lesbaren Kontext zu erzeugen.

#02

KI beschleunigt, ersetzt aber nichts.

Claude Code ist mein Co-Pilot — nicht mein Autopilot. Mehrere Jahre Berufserfahrung als C#/C++-Anwendungsentwickler, Schnittstellen-Programmierer und Server-Admin stehen hinter jeder Architektur-Entscheidung. Die KI schreibt schneller. Die Verantwortung bleibt meine.

#03

Keine Abhängigkeit von US-Großmodellen.

OpenAI, Anthropic und Google können jederzeit Preise anheben, APIs einstellen oder Regionen sperren. On-Prem-LLMs wie Llama oder Mistral auf Ihrem Hetzner-Server sind eine Versicherung: Ihre Kosten bleiben planbar, Ihre Daten bleiben im Haus, Ihre Features sind nicht vertraglich kündbar.

#04

Souveränität schlägt Bequemlichkeit.

Ich hoste in DE/EU, nutze offene Formate, baue auf weitverbreiteten Standards. Keine Vercel-Abhängigkeit, kein Firebase-Lock-in. Manches ist initial schwieriger — zahlt sich aber beim ersten Vendor-Konflikt aus.

Standort

Raum Frankfurt · Remote

Homebase nahe Frankfurt am Main. Vor-Ort-Termine in FFM, Darmstadt, Mainz, Wiesbaden, Köln — Zug fahre ich gern.

Sprachen & Skills

Breit aufgestellt

Historie: C#, C++, Schnittstellen-Programmierung.
Heute aktiv: Python, Django, TypeScript, Astro, Dart/Flutter, Go, Java, HTML/CSS.
Infra: Linux-Server-Admin, Caddy/Nginx, Podman/Docker, Postgres.

Team

Klein und flexibel

Ein Kern-Entwickler, ergänzt durch ein Netzwerk für Urlaubsvertretung, Feuerwehr-Einsätze und Spezialaufgaben. Transparente Kommunikation wer gerade dran ist.

Berufsweg

ICOM · CPC-IT · SDS · ZfW → 2025→

8-9 Jahre als Anwendungsentwickler und Server-Admin bei IT-Unternehmen (Start bei ICOM Computer, der Firma meines Vaters). Danach Branchen-Pause mit durchgängiger Tech-Beschäftigung nebenbei. Seit 2025 Wiedereinstieg als KI-augmentierter Entwickler.

Muttersprachen

Deutsch · English (B2)

Kunden-Kommunikation und Dokumentation auf Deutsch. Englisch für technische Doku und internationale Repos.

Keine Angebote für

Crypto · Gambling · Adtech

Auch keine Projekte mit offensichtlicher Werbe-Tracking-Architektur, Dark-Patterns oder Tracking-Pixel-Farmen.

06 / Kontakt

Lass uns reden.

Drei Kanäle, ein Ansprechpartner. Antwort werktags innerhalb von 24 Stunden.

  • Telefon (auf Anfrage per Mail)
    Nummer wird nach kurzer Mail-Vorab-Klärung geteilt.
  • Formular
    Rechts — inkl. Projekt-Kontext
Reaktionszeit: < 24h werktags
Datenübermittlung: verschlüsselt (TLS 1.3)
Spam-Schutz: Cloudflare Turnstile (kein reCAPTCHA)