VS Code 1.117 incorpora soporte para modelos de IA personalizados y mejoras en la experiencia de Chat

Published:

Microsoft continúa acelerando la integración de inteligencia artificial en su ecosistema de desarrollo con el lanzamiento de Visual Studio Code 1.117. Esta nueva versión introduce soporte para modelos de IA personalizados, mejoras en la experiencia de chat y animaciones más fluidas, apuntando directamente a optimizar la productividad de desarrolladores, especialmente en entornos DevOps y SRE donde la automatización es clave.


🚀 Novedades clave en VS Code 1.117

🧠 Soporte para modelos de IA personalizados

Una de las funcionalidades más relevantes es la posibilidad de integrar modelos de inteligencia artificial personalizados dentro del entorno de desarrollo.

Esto permite:

  • Utilizar modelos propios o de terceros (self-hosted o cloud)
  • Integrar herramientas internas de IA (por ejemplo, modelos entrenados con código propietario)
  • Tener mayor control sobre privacidad y cumplimiento (compliance)

Esto es particularmente útil en organizaciones que:

  • No pueden enviar código a servicios externos
  • Necesitan IA adaptada a su stack tecnológico
  • Buscan reducir costos de APIs externas

👉 En términos prácticos, ahora puedes conectar endpoints compatibles (como APIs tipo OpenAI, Azure OpenAI o modelos locales) directamente al sistema de chat de VS Code.


💬 Experiencia de Chat más fluida

El sistema de chat integrado sigue evolucionando y ahora incluye:

  • Animaciones más suaves en la interacción
  • Mejor renderizado de respuestas
  • Sensación más “conversacional” y menos rígida

Esto mejora significativamente el uso diario de asistentes como GitHub Copilot Chat o integraciones personalizadas.


⚙️ Mejoras técnicas y de productividad

Además de la IA, esta versión incluye mejoras que impactan directamente en workflows reales:

  • Optimización del rendimiento general del editor
  • Mejoras en extensiones y APIs internas
  • Refinamiento de la interfaz de usuario

🛠️ Cómo aprovechar modelos de IA personalizados en VS Code

A nivel práctico, si trabajas en entornos de infraestructura o desarrollo avanzado, puedes implementar algo como:

1. Exponer un modelo interno

Ejemplo:

  • LLM local con Ollama
  • Endpoint REST interno con autenticación

2. Configurar VS Code

Dentro de settings o extensiones compatibles:

{
  "ai.modelProvider": "custom",
  "ai.endpoint": "http://localhost:11434/api/generate",
  "ai.model": "llama3"
}

(La configuración puede variar según la extensión utilizada, pero el concepto es este.)


3. Casos de uso reales

  • Generación de scripts Terraform internos
  • Auditoría de código con políticas de seguridad propias
  • Asistencia en troubleshooting de Kubernetes
  • Generación de playbooks Ansible

🔐 Impacto en seguridad y compliance

Este cambio es clave desde una perspectiva de seguridad:

Aspecto

Antes

Ahora

Uso de IA

Dependiente de servicios externos

Control total

Privacidad

Riesgo de fuga de código

Datos internos

Compliance

Limitado

Alineado a políticas

Para equipos SRE o plataformas enterprise, esto habilita una adopción más agresiva de IA sin comprometer gobernanza.


📦 Cómo actualizar VS Code

Puedes actualizar fácilmente:

Linux

# Debian/Ubuntu
sudo apt update && sudo apt upgrade code

# Arch Linux
sudo pacman -Syu code

Windows / macOS

Desde el propio editor:

Help → Check for Updates

O descargar desde el sitio oficial:
👉 https://code.visualstudio.com/


📚 Fuente oficial

  • https://www.neowin.net/news/microsoft-unleashes-vs-code-1117-with-custom-ai-model-support-and-fluid-chat-animations/

🧾 Conclusión

VS Code 1.117 no es solo una actualización incremental: es un paso estratégico hacia entornos de desarrollo más autónomos, donde la IA puede adaptarse completamente a las necesidades de cada organización.

Si trabajas en DevOps, SRE o desarrollo backend, la posibilidad de integrar modelos personalizados abre la puerta a automatizaciones mucho más potentes, seguras y alineadas al negocio.

👉 Recomendación: evalúa implementar un modelo interno (por ejemplo con Ollama o APIs privadas) y comienza a integrar IA en tus flujos críticos sin depender de terceros.

- Advertisement -
Jorge
Jorgehttps://nksistemas.com
Soy Jorge, Sr Sysadmin Linux/DevOps/SRE y creador de NKSistemas.com Trabajo con plataformas: Linux, Windows, AWS, GCP, VMware, Helm, kubernetes, Docker, etc.

Related articles