Microsoft requiere reglas de IA para minimizar riesgos

Microsoft requiere reglas de IA para minimizar riesgos

Microsoft aprobó el jueves una serie de regulaciones de inteligencia artificial a medida que la compañía presta atención a las preocupaciones de los gobiernos de todo el mundo sobre los riesgos de la tecnología de rápido crecimiento.

Microsoft, que prometió incorporar inteligencia artificial en muchos de sus productos, ha propuesto regulaciones, incluido el requisito de que los sistemas utilizados en infraestructuras críticas puedan apagarse o ralentizarse por completo, como el sistema de frenado de emergencia de un tren. La compañía también pidió leyes para aclarar cuándo se aplican obligaciones legales adicionales a un sistema de inteligencia artificial, y etiquetas para especificar cuándo una computadora produjo una imagen o un video.

«Las empresas tienen que dar un paso al frente», dijo el presidente de Microsoft, Brad Smith, en una entrevista sobre la aplicación de las normas. «El gobierno debería moverse más rápido». Dio a conocer las propuestas el jueves por la mañana en un evento en el centro de Washington ante una audiencia que incluía a legisladores.

La convocatoria de regulaciones marca un auge en la IA, con el lanzamiento del chatbot ChatGPT en noviembre despertando interés. Desde entonces, empresas como Microsoft y la matriz de Google, Alphabet, se han apresurado a incorporar la tecnología en sus productos. Eso ha alimentado la preocupación de que las empresas están sacrificando la seguridad para llegar al próximo gran avance antes que sus competidores.

Los legisladores han expresado públicamente su preocupación de que productos como la inteligencia artificial, que pueden generar texto e imágenes por sí mismos, generen una avalancha de desinformación, sean utilizados por delincuentes y dejen a la gente sin trabajo. Los reguladores en Washington han prometido estar atentos a los estafadores que usan IA y los casos en los que los sistemas perpetúan la discriminación o toman decisiones que violan la ley.

En respuesta a ese escrutinio, los desarrolladores de IA piden cada vez más que la carga de controlar la tecnología se transfiera al gobierno. Sam Altman, CEO de OpenAI, que crea ChatGPT y cuenta con Microsoft como inversionista, le dijo a un subcomité del Senado este mes que el gobierno debería regular la tecnología.

El ejercicio hace eco de los pedidos de nuevas leyes de privacidad o redes sociales de compañías de Internet como Google y Meta, la matriz de Facebook. Los legisladores en los Estados Unidos se han movido lentamente en tales llamados, con pocas reglas federales nuevas sobre privacidad o redes sociales en los últimos años.

En una entrevista, Smith dijo que Microsoft no estaba tratando de eludir la responsabilidad de administrar la nueva tecnología porque ofrecía ideas concretas y prometía implementar algunas de ellas, independientemente de si el gobierno tomaba medidas.

«No tiene sentido renunciar a la responsabilidad», dijo.

Respaldó una idea apoyada por Altman durante su testimonio en el Congreso de que una agencia gubernamental debería exigir a las empresas que obtengan patentes para implementar modelos de inteligencia artificial «altamente capaces».

“Significa que notifica al gobierno cuando comienza a realizar las pruebas”, dijo Smith. «Hay que compartir los resultados con el gobierno. Incluso cuando tiene licencia para su despliegue, tiene el deber de seguir supervisándolo e informar al gobierno si surgen problemas inesperados».

Microsoft, que ganó más de $ 22 mil millones de su negocio de computación en la nube en el primer trimestre, también dijo que esos sistemas de alto riesgo solo deberían poder ejecutarse en «centros de datos de IA con licencia». Smith reconoció que la compañía no estaría en una «mala posición» para ofrecer tales servicios, pero dijo que muchos rivales estadounidenses también podrían brindarlos.

Microsoft agregó que los gobiernos deberían designar ciertos sistemas de inteligencia artificial utilizados en infraestructura crítica como de «alto riesgo» y exigirles que tengan un «freno de seguridad». Comparó la función con «los ingenieros de sistemas de frenos han incorporado durante mucho tiempo otras tecnologías, como ascensores, autobuses escolares y trenes de alta velocidad».

En algunos casos delicados, dice Microsoft, las empresas que proporcionan sistemas de inteligencia artificial necesitan conocer cierta información sobre sus clientes. Para proteger a los consumidores del fraude, el contenido creado por inteligencia artificial debe llevar una etiqueta especial, dijo la compañía.

Smith dijo que las empresas deberían ser consideradas legalmente «responsables» por los daños relacionados con la IA. En algunos casos, dijo, la parte responsable podría ser el desarrollador de una aplicación, como el motor de búsqueda Bing de Microsoft, que utiliza la tecnología de IA subyacente de otra persona. Las empresas de la nube pueden ser responsables del cumplimiento de las normas de seguridad y otras reglas, agregó.

“No necesariamente tenemos la mejor información o la mejor respuesta, o no podemos ser el vocero más creíble”, dijo Smith. «Pero, ya sabes, en este momento, especialmente en Washington, la gente está buscando ideas».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *