El Congreso no solo remodeló los códigos de impuestos con el proyecto de ley “una gran hermosa”; También remodeló en silencio el futuro de la inteligencia artificial. Una disposición menos conocida de la legislación radical ahora está en camino de convertirse en ley: una congelación de 10 años en la regulación de IA a nivel estatal.
En otras palabras, ningún estado individual puede aprobar reglas que rigen cómo las empresas desarrollan o usan sistemas de IA. El mensaje es claro para las empresas que se apresuran a incrustar la IA en las operaciones diarias: gobernar o arriesgarse a aprender de la manera difícil por la cual los buorillas importan.
AI ya no es un proyecto paralelo. Ya está integrado en plataformas de ciberseguridad, CRMS, herramientas de chat internas, paneles de informes y productos orientados al cliente. Incluso las organizaciones medianas están capacitando modelos de IA en datos propietarios para acelerar todo, desde la selección de proveedores hasta el análisis del contrato.
Sin embargo, la curva de adopción ha superado los controles internos. Muchos equipos son herramientas de luz verde sin comprender cómo fueron capacitados, qué datos retienen o cómo se validan las salidas. Los líderes de TI a menudo descubren el uso de IA bien después de que ya esté operativo. Este tipo de IA de sombra crea una superficie de riesgo importante.
Y ahora, con la supervisión a nivel estatal bloqueada durante una década, no hay presión externa que obligue a las organizaciones a establecer políticas o reglas de referencia. Este cambio empuja a las empresas a asumir aún más la responsabilidad de lo que sucede dentro de sus paredes.
Sin barandas, AI puede derivar; rápido
Los modelos de IA no son estáticos. Una vez implementados, aprenden de nuevos datos, interactúan con los sistemas e influyen en la toma de decisiones. Eso es poderoso pero también impredecible.
No se registra, una herramienta de pronóstico impulsada por la IA podría depender demasiado de los patrones obsoletos, causando cuellos de botella sobreproducción o cadena de suministro. Un chatbot diseñado para racionalizar el servicio al cliente podría generar respuestas sesgadas o fuera de marca.
Mientras tanto, los modelos generativos capacitados en documentos comerciales confidenciales pueden exponer inadvertidamente la información patentada en futuras indicaciones. Por ejemplo, un estudio publicado en enero de 2025 encontró que casi 1 de cada 10 indicaciones utilizadas por los usuarios comerciales al interactuar con herramientas generativas de IA (Genai) podría revelar inadvertidamente datos confidenciales.
Estos no son peligros abstractos; Ya han aparecido en incidentes públicos. Pero no es solo el daño de las relaciones públicas lo que está en juego. Los errores de IA pueden afectar los ingresos, la seguridad de los datos e incluso la exposición legal. La ausencia de presión regulatoria no hace que estos problemas desaparezcan: hace que se pierdan hasta que sean demasiado grandes para ignorar.
El juego inteligente es un gobierno interno: antes de que lo necesite
Las organizaciones están ansiosas por integrar Genai, con muchos equipos que ya usan estas poderosas herramientas en las operaciones diarias. Esta rápida adopción significa que solo monitorear pasivamente las cosas no es suficiente; Una estructura de gobierno fuerte es crucial, una que puede adaptarse a medida que la IA se vuelve más central para el negocio.
Establecer un consejo interno de gobernanza de IA, idealmente con líderes de él, seguridad, cumplimiento y operaciones, ofrece ese marco vital. Este consejo no está allí para detener la innovación. Su trabajo es traer claridad. Por lo general, revisa las herramientas de IA antes de implementarse, establece políticas de uso claras y funciona con equipos para que comprendan completamente los beneficios y los límites de la IA que están utilizando.
Este enfoque reduce el uso de herramientas no autorizadas, hace que la auditoría sea más eficiente y ayuda al liderazgo a dirigir la estrategia de IA con confianza. Sin embargo, para que la gobernanza sea efectiva, debe integrarse en sistemas empresariales más amplios, no aislados en hojas de cálculo o chats informales.
Las plataformas GRC pueden anclar el gobierno de AI
Las plataformas de gobernanza, riesgo y cumplimiento (GRC) ya ayudan a las empresas a administrar el riesgo de terceros, la aplicación de políticas, la respuesta a incidentes y las auditorías internas. Ahora también están emergiendo como infraestructura crítica para la gobernanza de la IA.
Al centralizar las políticas, las aprobaciones y los senderos de auditoría, las plataformas GRC ayudan a las organizaciones a rastrear dónde se está utilizando AI, qué fuentes de datos lo están alimentando y cómo se monitorizan las salidas con el tiempo. También crean un proceso transparente y repetible para que los equipos propongan, evalúen e implementen herramientas de IA con supervisión para que la innovación no se convierta en improvisación.
No cuentes con los proveedores para manejarlo por ti
Muchas herramientas anuncian características de IA con un sentido de seguridad incorporada, que incluye configuraciones de privacidad, modelos explicables y paneles listos para el cumplimiento. Pero con demasiada frecuencia, los detalles se dejan al usuario.
Si un modelo capacitado en proveedores falla, su equipo probablemente tendrá los costos operativos y de reputación. Las empresas no pueden permitirse tratar la IA de terceros como “set y olvidar”. Incluso las herramientas con licencia deben gobernarse internamente, especialmente si están aprendiendo de los datos de la empresa o tomando decisiones críticas del proceso.
El resultado final
Con los estados de bloqueo de los Estados Unidos para establecer sus propias reglas, muchos asumieron que la regulación federal seguiría rápidamente. Sin embargo, la realidad es más complicada. Existe un proyecto de legislación, pero los plazos son confusos, y el apoyo político es mixto.
Mientras tanto, cada organización que usa AI está escribiendo efectivamente su propio libro de reglas. Ese es un desafío y una oportunidad, especialmente para las empresas que desean generar confianza, evitar los pasos en falso y liderar con confianza.
Las organizaciones que definen su gobierno ahora tendrán menos simulacros de incendio más tarde. También estarán mejor preparados para cualquier regla federal que llegue eventualmente porque su estructura interna no necesitará una revisión de última hora.
Porque si las reglas se aplican o no externamente, su negocio aún depende de la IA correcta.
Hemos presentado el mejor software de plan de negocios.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la actualidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro