por Dev Nag, CEO y fundador de Consulta
La propuesta de la casa de los Estados Unidos para imponer un Congelamiento de 10 primaveras en la regulación de IA a nivel estatal es más que una maniobra política. Es una oportunidad fundamental de homogeneizar el panorama regulatorio fragmentado que actualmente desafía la apadrinamiento de IA a escalera. Para las empresas que navegan por las complejidades de desplegar inteligencia industrial en múltiples jurisdicciones, la promesa de un ámbito doméstico único y claro está muy retrasado.
Si aceptablemente los debates giran en torno a si este congelamiento es un sorteo para la gran tecnología o un ataque para la innovación estatal, nos faltan un punto mucho más práctico: la claridad regulatoria es la colchoneta de la implementación responsable. Sin él, el explicación de IA permanece acobardado por los costos de cumplimiento o empujado a las zonas grises de tolerancia al aventura. En cualquier caso, los consumidores pierden, los puestos de innovación y la confianza se erosionan.
El costo de la fragmentación
Hoy, no hay un solo manual de reglas para la IA. En cambio, estamos viendo una creciente maraña de leyes estatales, de SB 1047 de California a las auditorías de operación de contratación de Nueva York a las reglas de Texas sobre medios sintéticos. Estos esfuerzos pueden ser aceptablemente intencionados, pero se han convertido en un campo minado logístico y permitido para las empresas que operan a nivel doméstico.
Los equipos de ingeniería deben ajustar continuamente el comportamiento del producto para cumplir con un moyálico de regulaciones y mandatos locales. Los equipos legales pasan más tiempo interpretando estatutos estatales que prepararse para los próximos marcos federales. Las estrategias de cumplimiento se han vuelto más sobre la geodesía que la ética o la seguridad. Eso no es sostenible.
Un enfoque federal unificado no significa que no haya regulación, pero coherente regulación. Una moratoria de una período en la reglamentación a nivel estatal adquisición tiempo para precisar cómo debería ser esa coherencia, idealmente de una modo que priorice la transparencia, la responsabilidad y la escalabilidad en todas las industrias.
El progreso de la previsibilidad de los combustibles
Una de las cosas más poderosas que ofrece un ámbito consistente es la previsibilidad. Sin reglas claras, las empresas hacen apuestas conservadoras al retrasar las implementaciones o cambiar el enfoque a los mercados donde las reglas son más fáciles de navegar, incluso si la condición de IA ética es decano en otros lugares.
Por ejemplo, una empresa que diseña una útil de IA para la atención médica puede confrontar requisitos de manejo de datos drásticamente diferentes en Illinois que en Florida. En respuesta, la compañía podría excluir ciertas poblaciones o características de su plataforma por completo, no porque quiera, sino porque el aventura de cumplimiento no vale la pena.
Eso no conduce a la equidad. Conduce a la restricción.
Un ámbito doméstico simplificaría este cálculo. Los desarrolladores podrían diseñar productos para una aplicación amplia, sabiendo que un conjunto de estándares, no 50, determina lo que es aceptable. Esta previsión crearía una ruta de implementación más equitativa, especialmente para las regiones desatendidas o de último fortuna que a menudo quedan fuera de los primeros lanzamientos de IA oportuno a preocupaciones de cumplimiento.
Lo que hace efectivamente la congelación
Los críticos de la moratoria a menudo lo retratan como una desregulación disfrazada, pero eso pasa por suspensión los matices. El esquema de ley no se desprende de la supervisión. Simplemente lo centraliza, colocando la responsabilidad en las agencias federales para crear reglas accionables, exigibles y consistentes. Hacerlo reduce la incertidumbre permitido que actualmente afecta la implementación transfronteriza y ayuda a las empresas a encaminar sus inversiones de cumplimiento en una dirección.
La congelación todavía brinda a los CIO y los líderes de adquisición más clara orientación al evaluar a los proveedores. En área de perseguir la optimización circunscrito, herramientas adaptadas a la ley de IA de un estado específico, pueden priorizar soluciones alineadas con los estándares federales anticipados. Eso, a su vez, fomenta un proveedor de IA más robusto y seguro basado en las mejores prácticas unificado.
Todavía existen riesgos
Para ser claros, esta no es una polímero gratuita para empresas para empresas. Una congelación de una período podría dejar ciertos daños sin tocar si los reguladores federales no actúan de modo rápida o integral. Sin una gobernanza reflexiva, surgirán brechas, especialmente en áreas como el examen facial, la información errónea de las elecciones y la discriminación algorítmica.
Pero esta no es una razón para rehusar la congelación directamente. Es una razón para tratarlo como un mandato para el liderazgo federal. El aventura existente no es la pausa de las leyes estatales, sino el potencial de inacción federal durante la pausa.
Las agencias deben tratar esta ventana como una oportunidad única en la vivientes para precisar los estándares de IA con durabilidad, matices y aportes públicos. La raya de tiempo es generosa. El trabajo no debe ser moroso.
Innovación estatal
Asimismo existe una preocupación legítima de que la congelación suprima la función de “laboratorios de la democracia” que la innovación a nivel estatal ha proporcionado históricamente. Muchas protecciones esenciales del consumidor (privacidad de datos, medidas contra la discriminación e incluso leyes de energía limpia) se originaron en los estados antiguamente de ingresar el código federal.
Pero deberíamos preguntar: “¿Es ese el maniquí adecuado para la IA?” La IA no es regional. A un motor de recomendación no le importa dónde vive un sucesor. Un conjunto de datos de entrenamiento sesgado no se corrige a sí mismo al cruzar las líneas de estado. Las preocupaciones éticas y los riesgos de seguridad son de luces entero, y así todavía debería ser el ámbito que los gobierna.
En área de utilizar los estados como laboratorios regulatorios, debemos usar programas piloto, décimo de las partes interesadas y comentarios públicos estructurados para cambiar las reglas federales de modo inteligente. Todavía hay espacio para la experimentación circunscrito, pero no a desembolso de la consistencia doméstico.
En dirección a un futuro de IA sostenible
La IA se está convirtiendo rápidamente en infraestructura. No es un esquema paralelo o una tendencia positivo: es el motor debajo de las plataformas de contratación, cadenas de suministro, sistemas legales, seguridad pública y más. La infraestructura requiere estándares. Los estándares requieren consenso. Y el consenso es difícil de enseñar cuando las reglas cambian cada 300 millas.
Un congelamiento de la regulación estatal de 10 primaveras ofrece poco raro: la oportunidad de dar un paso detrás, alinearse a nivel doméstico y diseñar la política de lo que se está convirtiendo en la IA, no en lo que ha sido. La verdadera pregunta es si usamos ese tiempo sabiamente.
Porque si lo hacemos, terminaremos con un ámbito que respalde la innovación, proteja a los ciudadanos y brinde a las empresas la claridad que necesitan para construir con confianza. Si no lo hacemos, pasaremos otra período construyendo la inconsistencia, y eso no es un futuro en torno a el que algún debería codificar.
Dev Nag es el CEO/Fundador en Consulta. Anteriormente estuvo en el equipo fundador de GLMX, una de las plataformas de negociación de títulos electrónicos más grandes en los mercados monetales, con más de $ 3 billones en saldos diarios. Asimismo fue CTO/Fundador en Wavefront (adquirido por VMware) y un ingeniero senior en Google, donde ayudó a desarrollar el back-end para todos los ingresos financieros de Google.
Relacionado
(TagStotranslate) INTELIGENCIA Industrial (T) Dev Nag (T) Problemas regulatorios