- Microsoft ha publicado su informe de transparencia de IA de AI 2025
- Describe sus planes para construir y mantener modelos de IA responsables
- Avieran nuevas regulaciones con respecto al uso de la IA, y Microsoft quiere estar listo
Con AI y grandes modelos de idiomas (LLM) cada vez más utilizados en muchas partes de la vida moderna, la confiabilidad y la seguridad de estos modelos se han convertido en una consideración importante para las empresas como Microsoft.
La compañía se ha movido para describir su enfoque para el futuro de la IA en su informe de transparencia de IA responsable de 2025, exponiendo cómo ve que el futuro de la tecnología evoluciona en los próximos años.
Así como hemos visto la IA más ampliamente adoptada por las empresas, también hemos visto una ola de regulaciones en todo el mundo que tienen como objetivo establecer el uso seguro y responsable de las herramientas de IA y la implementación de políticas de gobierno de IA que ayudan a las empresas a administrar los riesgos asociados con el uso de la IA.
Un enfoque práctico
En el informe, el segundo siguiente a un lanzamiento inicial en mayo de 2024, Microsoft establece cómo ha realizado importantes inversiones en herramientas, políticas y prácticas de IA responsables.
Estos incluyen la gestión ampliada de riesgos y la mitigación de “modalidades más allá del texto, las imágenes similares a los de los textos, el audio y el video, y el apoyo adicional para los sistemas de agente”, además de tomar un “enfoque proactivo y en capas” a las nuevas regulaciones como la Ley de AI de la UE, proporcionar a los clientes materiales y recursos para que estén listos y que cumplan con los requisitos entrantes.
La gestión de riesgos consistente, la supervisión, la revisión y el equipo rojo de la IA y los lanzamientos generativos de IA se encuentran junto con la investigación y el desarrollo continuos para ‘informar nuestra comprensión de los problemas sociotécnicos relacionados con los últimos avances en la IA’, con el Laboratorio de fronteras de IA de la compañía que ayuda a Microsoft “, presione la frontera de lo que los sistemas de IA pueden hacer en términos de capacidad, eficiencia y seguridad”.
Como AI avanza, Microsoft dice que planea construir herramientas y prácticas más adaptables e invertir en sistemas de gestión de riesgos para “proporcionar herramientas y prácticas para los riesgos más comunes en los escenarios de implementación”.
Sin embargo, eso no es todo, ya que Microsoft también planea profundizar su trabajo con respecto a las regulaciones entrantes mediante el apoyo de una gobernanza efectiva en toda la cadena de suministro de IA.
Dice que también está trabajando interna y externamente para “aclarar los roles y las expectativas”, así como continuar con la investigación de “medición y evaluación de riesgos de IA y las herramientas para operacionalizarlo a escala”, compartiendo avances con su ecosistema más amplio para apoyar las normas y estándares más seguros.
“Nuestro informe destaca los nuevos desarrollos relacionados con la forma en que construimos y implementamos sistemas de IA de manera responsable, cómo apoyamos a nuestros clientes y al ecosistema más amplio, y cómo aprendemos y evolucionamos”, señaló Teresa Hutson, CVP, grupo de tecnología de confianza y Natasha Cramton, jefe de AI responsable.
“Esperamos escuchar sus comentarios sobre el progreso que hemos logrado y las oportunidades para colaborar sobre todo lo que aún queda por hacer. Juntos, podemos avanzar en el gobierno de IA de manera eficiente y efectiva, fomentando la confianza en los sistemas de IA a un ritmo que coincida con las oportunidades que se avecinan”.