ChatGPT
Crédito: Unsplash/CC0 Dominio público

El gobierno australiano ha liberadoEstándares voluntarios de seguridad de inteligencia artificial (IA), junto a undocumento de propuestaspidiendo una mayor regulación del uso de esta tecnología de rápido crecimiento en situaciones de alto riesgo.

Elmensaje para llevar a casadel ministro federal de Industria y Ciencia, Ed Husic, fue:

"Necesitamos que más personas utilicen la IA y para ello necesitamos generar confianza".

Pero, ¿por qué exactamente la gente necesita confiar en esto??¿Y por qué exactamente es necesario que más personas lo utilicen?

Los sistemas de IA se entrenan con conjuntos de datos incomprensiblemente grandes utilizando matemáticas avanzadas que la mayoría de la gente no entiende.Producen resultados que no tenemos forma de verificar.Incluso los sistemas más emblemáticos y de última generación producen resultados plagados de errores.

ChatGPT parece volverse menos preciso con el tiempo.Incluso en su mejor momentoNo puedo decirte qué letrasestán en la palabra "fresa".Mientras tanto,El chatbot Gemini de Google recomienda poner pegamento en la pizza, entre otros fracasos cómicos.

Teniendo en cuenta todo esto, la desconfianza pública hacia la IA parece totalmente razonable.Los argumentos para utilizar más cantidad parecen bastante débiles y también potencialmente peligrosos.

Riesgos de la IA

Se ha hablado mucho de la"Amenaza existencial" de la IAy cómo conducirá a la pérdida de empleos.Los daños que presenta la IA van desde lo manifiesto, comovehículos autónomos que atropellan a peatonesâa los más sutiles, comoSistemas de reclutamiento de IA que demuestran prejuicios contra las mujereso sistema legal de IAherramientas con prejuicios contra las personas de color.

Otros daños incluyen el fraude de deepfakes decompañeros de trabajoy deseres queridos.

No importa que elInformes recientes del propio gobierno federal.demostró que los humanos son más efectivos, eficientes y productivos que la IA.

pero sitodo lo que tienes es un martillo, todo parece un clavo.

La adopción de tecnología todavía cae en este tropo familiar.La IA no siempre es la mejor herramienta para el trabajo.Pero cuando nos enfrentamos a una tecnología nueva e interesante, a menudo la utilizamos sin considerar si deberíamos hacerlo.

En lugar de animar a más personas a utilizar la IA, todos deberíamos aprender cuál es un buen y no bueno uso de la IA.

¿Es la tecnología en la que debemos confiar... o el gobierno?

¿Qué obtiene el gobierno australiano si más personas utilizan la IA?

Uno de los mayores riesgos es elfiltración de datos privados.Estas herramientas recopilan nuestra información privada, nuestra propiedad intelectual y nuestros pensamientos a una escala que nunca antes habíamos visto.

Gran parte de estos datos, en el caso de ChatGPT, Google Gemini, Otter.ai y otros modelos de IA, no se procesan en Australia.

Estas empresas predicantransparencia, privacidad y seguridad.Pero a menudo es difícil descubrir situs datos son usadospara entrenar sus modelos más nuevos,como lo aseguran, o qué otras organizaciones o gobiernos tienen acceso a esos datos.

Recientemente, el ministro federal de Servicios Gubernamentales, Bill Shorten, presentó el programa Trust Exchange propuesto por el gobierno, que generó preocupaciones sobre larecopilación de aún más datos sobre ciudadanos australianos.En su discurso ante el Club Nacional de Prensa, Shorten destacó abiertamente el apoyo de las grandes empresas tecnológicas,incluido Google.

Si los datos sobre los australianos se recopilaran a través de diferentes plataformas tecnológicas, incluida la inteligencia artificial, podríamos ver una vigilancia masiva generalizada.

Pero lo que es aún más preocupante es que hemos observado el poder de la tecnología para influir en la política y el comportamiento.

Sesgo de automatizaciónes la terminología que utilizamos para la tendencia de los usuarios a creer que la tecnología es "más inteligente" que ellos.Demasiada confianza en la IA plantea aún más riesgos para los australianos: al fomentar un mayor uso de la tecnología sin una educación adecuada, podríamos estar sometiendo a nuestra población a un sistema integral de vigilancia y control automatizados.

Y aunque es posible que puedas escapar de este sistema, socavaría la confianza y la cohesión social e influiría en las personas sin que ellas lo sepan.

Estos factores son una razón más para regular el uso de la IA, como ahora pretende hacer el gobierno australiano.Pero hacerlo no tiene por qué ir acompañado de un estímulo enérgico para utilizarlo también.

Reduzcamos el revuelo ciego

El tema de la regulación de la IA es importante.

La Organización Internacional de Normalización ha establecido una norma sobre lauso y gestión de sistemas de IA.Su implementación en Australia conduciría a un uso mejor, más razonado y regulado de la IA.

Este estándar y otros son la base del estándar voluntario de seguridad de IA propuesto por el gobierno.

Lo problemático del anuncio del gobierno federal de esta semana no fue el llamado a una mayor regulación, sino la exageración ciega del uso de la IA.

Centrémonos en proteger a los australianos, no en exigir su necesidad de consumir, y, IA.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:El gobierno australiano dice que más personas necesitan usar IA: por qué eso podría estar mal (7 de septiembre de 2024)recuperado el 7 de septiembre de 2024de https://techxplore.com/news/2024-09-australian-people-ai-wrong.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.