dIArio #1: Sora2 crea una alarma nacional en Jamaica
Esta semana, el ecosistema de IA se ha puesto intenso: guerras de infraestructura, miles de millones en centros de datos y modelos que cada vez piensan más antes de "abrir la boca". Mientras tanto, los debates sobre ética, desinformación y salud mental siguen sonando de fondo. Se empiezan a ver la problemática real de un futuro cada vez más cercano.
Avances en modelos y agentes
- Los de DeepSeek se han sacado de la manga un modelo que convierte el texto en imágenes comprimidas, permitiendo meter documentos enormes en la cabeza de un LLM sin que reviente. Andrej Karpathy, cofundador de OpenAI, ya está diciendo que todo debería ser en imágenes, incluso el texto. Tiene sentido: los humanos también pensamos en memes antes que en palabras. Fuente
- Alibaba presenta un agente web de código abierto que compite con el DeepResearch de OpenAI. Funciona por “rondas de investigación”, como si el modelo fuese un periodista con déficit de atención (pero organizado). Fuente
- Un investigador de Meta ha desarrollado una arquitectura que propone que los modelos tomen una decisión antes de escribir. Primero decide si la crítica "va a ser buena o mala", y luego actúa en consecuencia. Lo que te hace pensar... ¿cómo lo hacía antes? Ahora entiendo muchas cosas. Fuente
- OpenAI presenta Aardvark, un agente autónomo para encontrar y arreglar vulnerabilidades de software. Un becario que no duerme y no pide un bocadillo de chóped a cambio. Está en beta privada, por supuesto. Fuente
- Google ha mejorado NotebookLM con 1 millón de tokens de contexto y personalización total. Puedes hablar con un modelo que actúe como narrador, profesor o doctorando. El futuro del role-playing académico. Fuente
Inversiones y mercado IA
- El boom de la IA sigue levantando centros de datos por todo el planeta. Muchos nunca se encenderán, pero eso no impide que los titulares sigan encendidos. Duros tiempos para los activistas del agua. Fuente
- Sam Altman confirmó que los ingresos son “bastante más” de $13 mil millones. Mientras tanto, ha reorganizado la estructura para parecer una empresa altruista (mientras piden dinero a Microsoft). Fuente
"Mucho dinero"
- Tata Consultancy crea HyperVault AI Data Center Limited, una subsidiaria para montar centros de datos soberanos de IA. Básicamente, su manera elegante de decir: “Queremos ingresos recurrentes, no proyectos únicos”. Fuente
- OpenAI se convierte oficialmente en una corporación de beneficio público, consolidando el control de su fundación sin ánimo de lucro y estrechando la mano de Microsoft. Una relación simbiótica o un abrazo del oso, según a quién preguntes. Fuente
"Mucho dinero"
Aplicaciones empresariales
- La Universidad de Maryland confirma que el 9% de los artículos de periódicos estadounidenses tiene mano robótica. Nadie lo dice, pero todos lo sospechan. Yo creo que es una suerte, dudo que en España tengamos un porcentaje tan bajo. Fuente
- Clario usa Claude 3.7 Sonnet para convertir PDFs en XMLs y automatizar la configuración de software en ensayos clínicos. El sueño húmedo de cualquier gestor de datos. Fuente
- Amazon aplica verificación formal a sus salidas de IA con la función Automated Reasoning (Razonamiento Automatizado). Traducción: ahora tu modelo puede citar leyes sin mentir demasiado. Fuente
- Google se alía con Reliance Intelligence para ofrecer 18 meses de acceso gratuito a Gemini 2.5 Pro. Competencia feroz o estrategia para entrenar más rápido a la próxima generación de usuarios. Fuente
Infraestructura y hardware
- Investigadores chinos dicen haber resuelto un “problema centenario” con un chip RRAM analógico que combina almacenamiento y procesamiento. Si es verdad, Nvidia va a tener un mal trimestre... Como si no fuera poco hacer la anual en enero. Fuente
- Nuevo campus de un gigavatio en Michigan. Literalmente. OpenAI se está convirtiendo en una compañía eléctrica. Fuente
- AWS crea un superordenador con más de un millón de chips para Anthropic. Nadie sabe si es colaboración o chantaje mutuo. Fuente
- NVIDIA ha presentado Nemotron Nano 3, un modelo Mixture-of-Experts (MoE) eficiente de 32B de parámetros con solo 3.6B de parámetros activos. Este modelo está diseñado para desarrolladores que buscan construir sistemas de IA de agentes especializados y ofrece un rendimiento superior en razonamiento científico, codificación y matemáticas, con mayor rendimiento y menor latencia en comparación con modelos densos de tamaño similar.
- NVIDIA lanza un modelo Mixture-of-Experts (MoE) de 32B de parámetros con solo 3.6B activos. Más pequeño, más rápido y más listo que el de marketing que lo anunció. Fuente
Ética, seguridad y regulación
- Videos hiperrealistas con la marca de Sora inundaron redes sociales durante el huracán Melissa. La marca de agua parecía que iba a ser el método para evitar la desinformación, pero es difícil cuando ésta también sopla a 200 km/h. Fuente
- Más de un millón de usuarios a la semana hablan con ChatGPT sobre temas suicidas. Ahora el modelo responde con "empatía real" y redirige a ayuda humana. Han hablado con 170 expertos habiendo 1 millón de usuarios al mes, ni la sanidad española tiene ese ratio. Fuente
- Cameo acusa a OpenAI de robar su nombre para su nuevo servicio de vídeos generados por IA. Ironía: una IA imitando a famosos imita también el nombre de la empresa. Cuando descubran que "cameo" es una palabra con significado propio, van a flipar. Fuente
- La Universidad de Aalto confirma lo que todos sospechábamos: trabajar con IA te hace sentir más listo de lo que eres. La IA es el nuevo Twitter. Fuente
Y estas han sido las noticias más importantes de la semana. No olvides suscribirte para recibir las noticias todos los lunes, y consejos sobre cómo automatizar procesos para ahorrar horas de trabajo todos los jueves.
Member discussion