Inteligencia Artificial

Tu nuevo secretario es un holograma de Razer: AVA ya puede reservarte citas y controlar Spotify por ti mientras juegas

La compañía presenta en la GDC 2026 un asistente con capacidades de agente, un sistema de control de calidad sin integración y un entorno multisensorial adaptativo para estudios de desarrollo

Errol Musk en el podcast Wide Awake
Así es Razer AVA

Que Razer fabrica buenos periféricos gaming lo sabe cualquiera que haya probado uno de sus ratones o teclados. Lo que no resulta tan evidente es que la marca de la triple serpiente lleva años construyendo, en paralelo, una plataforma de software y servicios que va mucho más allá del hardware.

La GDC 2026, celebrada en San Francisco entre el 9 y el 13 de marzo, ha sido el escenario elegido para enseñar hasta dónde quiere llegar. El mensaje es directo: la inteligencia artificial debe servir para que los creadores humanos trabajen más rápido, no para sustituirlos.

Tres pilares ha presentado Razer en el Festival of Gaming. Cada uno ataca una fase distinta del ciclo de desarrollo: la asistencia al usuario, el testeo automatizado y la inmersión sensorial. Con un mercado que, según las previsiones de la industria, alcanzará los 206.500 millones de dólares en 2028, la apuesta tiene contexto de sobra.

AVA pasa de mascota holográfica a asistente con criterio

Razer AVA nació como Proyecto AVA en 2025. En el CES 2026 apareció convertido en un compañero holográfico 3D de 5,5 pulgadas que llamaba la atención, pero hacía poco más que responder preguntas. Ahora da un salto: se convierte en un agente capaz de entender objetivos, planificar tareas y ejecutarlas en varias aplicaciones a la vez.

¿Qué significa eso en la práctica? Que AVA puede coordinar calendarios entre usuarios, lanzar acciones en Spotify o plataformas de chat y encadenar pasos complejos sin supervisión constante. Según publica Razer en su nota de prensa oficial, el sistema enruta las peticiones entre modelos locales y en la nube para reducir la latencia. En un sector donde los agentes de IA ganan terreno a diario, tiene sentido. La beta ya está abierta en Razer Cortex, con acceso anticipado previsto para el segundo trimestre de 2026.

Detectar bugs sin tocar el código

El segundo pilar es QA Companion-AI, una herramienta de control de calidad que funciona sin SDK, sin plugins y sin cambios en el código del juego. Se instala una aplicación puente y listo.

El sistema graba secuencias de juego, detecta errores visuales —física, colisiones, renderizado, animación— y genera informes con vídeo y pasos de reproducción. A partir de un documento de diseño, puede crear casos de prueba funcionales en minutos. Los agentes de juego de IA, todavía en desarrollo, prometen ejecutar esos tests y devolver resultados de aprobado o suspenso sin scripts.

Para un estudio que no puede dedicar docenas de testers a cada build, esto podría acelerar los ciclos de forma notable. Ojo: Razer reconoce que los agentes autónomos de testeo aún no están listos para producción.

Sentir el juego con háptica, luz y audio adaptativo

Adaptive Immersive Experience es un entorno de ejecución multisensorial que combina efectos prediseñados con háptica, iluminación Chroma RGB y audio espacial THX generados en tiempo real a partir de las señales del propio juego. La promesa: tres días de integración frente a semanas de ajuste manual.

El sistema interpreta el audio y las señales visuales para crear una capa ambiental que complementa los momentos creados a mano por el diseñador, sin anularlos. Compatible con Unity, Unreal Engine y Wwise, forma parte de la plataforma de desarrollo WYVRN de Razer.

Dynamic Haptics une los efectos Sensa HD del estudio con Audio-to-Haptics (A2H), un motor que convierte el sonido en respuesta táctil en tiempo real. Sony lleva años exprimiendo la háptica del DualSense, pero Razer quiere llevarla al PC y hacerla accesible a cualquier estudio. El despliegue de esta tecnología presentada en la GDC será por fases a lo largo de 2026.

Que Razer consiga hacerse un hueco en la carrera por la IA aplicada al desarrollo dependerá de si estas herramientas funcionan igual de bien fuera del stand.