IA autohospedada de código abierto: cuando quieres ejecutar la IA sin conexión y en secreto en tu propio ordenador

IA Generador de Documentos Jon AI
de Stélio Inácio, fundador de Jon AI y especialista en IA

Tu propia IA privada: el mundo del autoalojamiento

Hasta ahora, hemos hablado del uso de modelos de IA como ChatGPT o Gemini, que se ejecutan en enormes servidores informáticos propiedad de grandes empresas de tecnología. Cuando los utilizas, tus datos viajan por Internet a sus ordenadores, se procesan y se les envía una respuesta. Pero, ¿qué pasaría si pudieras ejecutar un potente modelo de IA completamente en tu propia computadora, sin necesidad de Internet y con absoluta privacidad?

Bienvenido al mundo de la IA de código abierto y autohospedada. Piensa en ello como cocinar en casa en lugar de comer en un restaurante. Cuando utilizas un servicio público de inteligencia artificial, comes en su restaurante; es práctico y tienen una cocina enorme, pero no sabes la receta exacta y estás en un espacio público. El alojamiento propio es como tener tu propia cocina privada. Tú eliges los ingredientes (los modelos de IA), controlas todo el proceso y nadie más ve lo que estás preparando. Tus datos nunca salen de tu dispositivo.

¿Por qué ejecutar la IA en tu propio ordenador?

Optar por una configuración autohospedada implica algunos pasos adicionales, pero las desventajas son convincentes para muchos usuarios.

Las ventajas (su laboratorio de IA privado)

  • Privacidad absoluta: esta es la razón número uno. Sus conversaciones y los datos que utiliza nunca se envían a terceros. Permanecen en tu máquina, punto.
  • Capacidad sin conexión a Internet: una vez que haya descargado los modelos, podrá utilizar su asistente de IA incluso sin conexión a Internet. Es perfecto para un vuelo o una cabina remota.
  • Sin cuotas de suscripción: el software y los modelos de código abierto son gratuitos. Solo está limitado por la potencia de su propia computadora.
  • Personalización definitiva: puedes descargar cientos de modelos diferentes y cambiar entre ellos, desde los más pequeños y rápidos hasta los más grandes y potentes, cada uno con puntos fuertes únicos.

Consideraciones (¿cuál es el truco?)

  • Demandas de hardware: para ejecutar estos modelos se necesita un ordenador relativamente moderno con suficiente RAM (16 GB es un buen comienzo). Una tarjeta gráfica (GPU) potente marca una gran diferencia de velocidad.
  • Un poco más técnico: las herramientas lo han hecho mucho más fácil, pero aún así requiere cierta comodidad al instalar el software y, en ocasiones, utilizar una línea de comandos.
  • Rendimiento de los modelos: si bien los modelos de código abierto son increíblemente potentes y mejoran cada día, los modelos más avanzados (como los más recientes de OpenAI o Google) no suelen estar disponibles como alojamiento propio.

Guía paso a paso: Cómo configurar tu IA personal

¿Preparado para probarlo? Utilizaremos una fantástica herramienta llamada Ollama, que se encarga de todo el trabajo pesado de gestionar y ejecutar los modelos. Luego añadiremos una interfaz de chat fácil de usar para que no tengas que vivir en una terminal.

  1. Instala el «Motor» (Ollama):

    Ollama es el programa principal que se ejecuta en segundo plano en el ordenador y sirve a los modelos de IA. Es el motor de nuestra configuración. Ve a ollama.com y descarga el instalador para tu sistema operativo (Mac, Windows o Linux). Siga las sencillas instrucciones de instalación.

  2. Descarga tu primer modelo de IA:

    Una vez instalado Ollama, abre la herramienta de línea de comandos de tu ordenador (Terminal en Mac/Linux, Command Prompt o PowerShell en Windows). Para descargar y chatear con el popular modelo Llama 3 de Meta, escribe el siguiente comando y presiona Enter:

    ollama ejecuta llama3

    La primera vez que lo ejecutes, se descargará el modelo (unos pocos gigabytes). Después de eso, iniciará una sesión de chat directamente en tu terminal. ¡Esto confirma que su motor está funcionando! Puede escribir /bye para salir.

  3. Instale una interfaz de usuario (interfaz de usuario web abierta):

    Ahora, la parte fácil de usar. Necesitamos una «interfaz» o un «panel de control» para charlar con nuestras modelos. Una buena opción es Open WebUI, que te ofrece una experiencia similar a la de ChatGP. La forma más sencilla de instalarlo es con Docker. Si no tienes Docker, puedes obtenerlo desde el sitio web oficial de Docker.

    Con Docker en ejecución, abre tu herramienta de línea de comandos y ejecuta este único comando:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui: /app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

    Este comando descarga la interfaz de usuario Open WebUI, la configura y la conecta a Ollama que se ejecuta en su ordenador.

  4. Empieza a chatear en privado:

    Abre tu navegador web y ve a http://localhost:3000. Verás la interfaz Open WebUI. ¡Crea una cuenta local y podrás empezar a chatear! Puedes seleccionar qué modelo usar (como el modelo `llama3` que descargaste) e incluso acceder a nuevos modelos directamente desde la interfaz web. ¡Enhorabuena, ahora tienes tu propia IA privada!

Una nota sobre los recursos informáticos

Ejecutar modelos de IA a nivel local puede resultar exigente para su ordenador. Cuanto más grande sea el modelo (por ejemplo, un modelo de 70 000 millones de parámetros frente a uno de 7 000 millones), más RAM necesitará y más lento será su funcionamiento, especialmente sin una GPU potente. No te desanimes si es un poco lento; ¡experimentar con modelos más pequeños y rápidos es parte de la diversión!

Comprobación rápida

¿Cuál es la razón principal y más importante para que alguien elija una configuración de IA autohospedada?

Resumen: IA autohospedada de código abierto

Lo que cubrimos:
  • El concepto de IA autohospedada, en el que se ejecutan modelos de código abierto en el propio ordenador.
  • Las principales ventajas son: privacidad absoluta, acceso sin conexión, sin comisiones y personalización total.
  • Las principales consideraciones: los requisitos de hardware y la naturaleza técnica de la configuración.
  • Una guía paso a paso para empezar a utilizar Ollama como «motor» y una interfaz de usuario web como «panel de control».

Por qué es importante:
  • El alojamiento con Self-Hosting le devuelve el control absoluto. Es una forma eficaz de utilizar la IA en tus propios términos, garantizando que tus datos sigan siendo tuyos mientras exploras el vasto mundo de los modelos de código abierto.

El siguiente paso:
  • Analizaremos la otra cara de la moneda del código abierto: ejecutar modelos de IA de código abierto en la nube cuando no quieras usar tu propio hardware, pero aun así quieras evitar compartir datos con las grandes tecnologías.