Imagen: © Startups Españolas

Arquitectura híbrida inteligente – datos sensibles nunca salen de tu Mac

El dilema de la privacidad en las IAs conversacionales

Cuando utilizas ChatGPT, Claude o cualquier otro chat de IA en la nube, todo lo que escribes se envía a sus servidores. Esto incluye contraseñas, claves API, correos electrónicos, números de teléfono y notas personales. Todas las conversaciones quedan registradas en sistemas externos fuera de tu control.

Para desarrolladores y usuarios conscientes de la privacidad, esto representa un dilema: renunciar a la potencia de modelos como GPT-4o, o aceptar que sus datos personales viajen constantemente a la nube.

AI Chat Terminal: proyecto español que combina GPT-4o con privacidad total (open source) - Arquitectura híbrida inteligente - datos sensibles nunca salen de tu Mac - Carousel Image
AI Chat Terminal: proyecto español que combina GPT-4o con privacidad total (open source) - Arquitectura híbrida inteligente - datos sensibles nunca salen de tu Mac - Carousel Image
AI Chat Terminal: proyecto español que combina GPT-4o con privacidad total (open source) - Arquitectura híbrida inteligente - datos sensibles nunca salen de tu Mac - Carousel Image
AI Chat Terminal: proyecto español que combina GPT-4o con privacidad total (open source) - Arquitectura híbrida inteligente - datos sensibles nunca salen de tu Mac - Carousel Image
AI Chat Terminal: proyecto español que combina GPT-4o con privacidad total (open source) - Arquitectura híbrida inteligente - datos sensibles nunca salen de tu Mac - Carousel Image
AI Chat Terminal: proyecto español que combina GPT-4o con privacidad total (open source) - Arquitectura híbrida inteligente - datos sensibles nunca salen de tu Mac - Carousel Image

La solución: arquitectura híbrida inteligente

AI Chat Terminal es un proyecto open source desarrollado por Martin Schenk SL (Madrid, España) que resuelve este problema mediante un sistema de routing inteligente. El sistema analiza cada mensaje en menos de 1 milisegundo y decide automáticamente la ruta óptima:

  • Consultas generales → Se envían a OpenAI GPT-4o (aprovechando su potencia y memoria contextual)
  • Datos sensibles → Se procesan localmente con Qwen 2.5 Coder (7B) y se guardan encriptados en tu Mac

Arquitectura técnica: cómo funciona

El sistema implementa una arquitectura de tres capas:

1. Detección de palabras clave (<1ms):
El sistema analiza el input del usuario buscando keywords como «save», «show», «delete», «guarda», «muestra», «speichere», etc. Con soporte para más de 30 verbos sinónimos en inglés, alemán y español.

2. Routing inteligente:
Si detecta keywords → envía a Qwen 2.5 Coder (7B) ejecutándose localmente vía Ollama. Este modelo genera SQL directamente para guardar/recuperar/eliminar datos en una base de datos SQLite encriptada con AES-256-CBC.

Si NO detecta keywords → envía a OpenAI GPT-4o en la nube, que mantiene contexto conversacional y responde con toda su potencia.

3. Almacenamiento encriptado:
Todos los datos sensibles se guardan en una base de datos SQLCipher con encriptación militar (AES-256-CBC, PBKDF2-HMAC-SHA512, 64.000 iteraciones). Las claves de cifrado se almacenan automáticamente en macOS Keychain – cero configuración para el usuario.

Ejemplos prácticos de uso

Conversación con memoria contextual (cloud):

👤 Usuario: "¿Cuál es la capital de España?"
🤖 IA: "Madrid"

👤 Usuario: "¿Cuál es la mejor comida allí?"
🤖 IA: "Tapas"

OpenAI mantiene el contexto y entiende que «allí» se refiere a Madrid gracias a su memoria conversacional.

Almacenamiento local encriptado (nunca sale de tu Mac):

👤 Usuario: "save my email contact@example.com"
🤖 IA: "🗄️ Guardado 🔒"

👤 Usuario: "show my email"
🤖 IA: "🗄️🔍 contact@example.com (email)"

👤 Usuario: "guarda mi cumpleaños 15/03/1990"
🤖 IA: "🗄️ Guardado 🔒"

Estos datos jamás abandonan tu ordenador y se procesan con IA local (Qwen 2.5 Coder). Cero llamadas de red para operaciones sensibles.

Características técnicas destacadas

🔒 Privacy-First Architecture:

  • Detección de keywords en menos de 1 milisegundo
  • IA local (Qwen 2.5 Coder) para datos sensibles – 4.5GB modelo
  • Base de datos encriptada con SQLCipher (AES-256-CBC)
  • Claves en macOS Keychain – gestión automática
  • Zero configuración requerida

🧠 Smart Context Management:

  • OpenAI mantiene historial conversacional
  • Entiende referencias («allí», «eso», «aquello»)
  • Historial de mensajes navegable con flechas ↑↓
  • Comando /help para shortcuts

🌍 Multilingüe:

  • Inglés, alemán y español completamente soportados
  • 30+ verbos sinónimos por idioma
  • Funciona con o sin posesivos («my/the/mi/la»)
  • Frases flexibles – habla naturalmente

⚡ Rendimiento optimizado:

  • Detección de keywords: <1ms
  • Operaciones locales: <1s
  • Consultas OpenAI: 5-7s (red + procesamiento)
  • Sistema de daemon híbrido: 95% más rápido vs v10

🔐 Seguridad transparente:

  • SQLCipher con AES-256-CBC encryption
  • PBKDF2-HMAC-SHA512 key derivation
  • 64.000 iteraciones (optimizado para <100ms)
  • Claves gestionadas automáticamente
  • Exportación a texto plano opcional (comando –export-db)

Instalación y requisitos del sistema

Requisitos mínimos:

  • macOS 12.0+ (Monterey o posterior)
  • Zsh shell
  • Python 3.9+
  • ~5GB espacio en disco (4.5GB para modelo Qwen)
  • 8GB RAM mínimo (16GB recomendado)
  • OpenAI API key

Instalación en un solo comando:

curl -fsSL https://raw.githubusercontent.com/martinschenk/ai-chat-terminal/main/install.sh | zsh

El instalador gestiona automáticamente todas las dependencias:

  • Ollama (~100MB) para ejecutar modelos locales
  • Qwen 2.5 Coder (7B) modelo – 4.5GB
  • Python packages: openai, requests, rich, sqlcipher3-binary
  • SQLCipher via Homebrew
  • Configuración automática de shell integration

Estado actual del proyecto y roadmap

El proyecto está actualmente en versión 11.5.1 con 285 commits de desarrollo activo. Disponible solo para macOS 12+, el creador Martin Schenk busca colaboradores para expandir la compatibilidad a Linux y Windows.

Roadmap de funcionalidades futuras:

  • Búsqueda web integrada para consultas en tiempo real
  • Soporte para más idiomas (francés, italiano, portugués)
  • Mejor manejo de errores
  • Optimizaciones de performance
  • Expansión multiplataforma (Linux/Windows)

Open source y colaboración

El proyecto está publicado en GitHub bajo licencia MIT, lo que permite a cualquier desarrollador:

  • Usar el código libremente en proyectos comerciales y personales
  • Contribuir con mejoras y nuevas funcionalidades
  • Adaptar el sistema a necesidades específicas
  • Proponer nuevas features vía pull requests
  • Reportar bugs vía GitHub Issues

El proyecto necesita ayuda en:

  • Testing en diferentes versiones de macOS
  • Soporte para más idiomas
  • Mejoras en el sistema de detección de intenciones
  • Optimizaciones de rendimiento
  • Documentación y tutoriales

¿Para quién es útil?

AI Chat Terminal resulta especialmente valioso para:

  • Desarrolladores que trabajan con API keys, credenciales y tokens sensibles diariamente
  • Usuarios conscientes de la privacidad que quieren controlar exactamente qué datos comparten con servicios cloud
  • Profesionales que manejan información confidencial pero necesitan las capacidades de modelos avanzados de IA
  • Power users de terminal que prefieren interfaces CLI rápidas y eficientes
  • Equipos de desarrollo que necesitan una solución de IA que respete la confidencialidad de datos corporativos

Comparativa: Cloud vs Híbrido

ChatGPT/Claude (100% Cloud):

  • ✅ Potente – GPT-4o es extremadamente capaz
  • ✅ Memoria contextual excelente
  • ❌ TODO va a sus servidores (incluidas contraseñas)
  • ❌ Sin control sobre datos sensibles
  • ❌ Logs de conversaciones en sistemas externos

AI Chat Terminal (Híbrido):

  • ✅ Potente – mismo GPT-4o para consultas generales
  • ✅ Memoria contextual idéntica (vía OpenAI)
  • ✅ Datos sensibles NUNCA salen del Mac
  • ✅ Encriptación AES-256 local
  • ✅ Control total – open source, código auditable
  • ✅ Gratuito y libre (licencia MIT)

Créditos y tecnologías

El proyecto utiliza tecnologías punteras del ecosistema open source:

  • Qwen 2.5 Coder (7B) – Alibaba Cloud vía Ollama – Generación directa de SQL
  • SQLCipher – Encriptación AES-256 para SQLite
  • OpenAI GPT-4o/GPT-4o-mini – Consultas generales con contexto
  • Ollama – Runtime local para LLMs

Desarrollado por Martin Schenk SL en Madrid, España, con contribuciones de la comunidad open source.

Conclusión: lo mejor de ambos mundos

AI Chat Terminal demuestra que no es necesario elegir entre potencia y privacidad. Mediante un sistema de routing inteligente, keyword detection ultrarrápido y encriptación local, el proyecto ofrece:

  • La potencia completa de GPT-4o para consultas generales
  • Seguridad absoluta para datos sensibles (procesamiento local + AES-256)
  • Experiencia de usuario fluida – el routing es invisible
  • Zero configuración – todo automático tras instalación
  • 100% open source – código auditable y modificable

Para desarrolladores que buscan una alternativa respetuosa con la privacidad a ChatGPT/Claude, o para usuarios que simplemente quieren control sobre sus datos sin sacrificar funcionalidad, AI Chat Terminal representa una solución elegante y técnicamente sólida.

Enlaces importantes: