Aplicaciones de Inteligencia Artificial (IA) generan debate sobre la ética

- Anuncio Publicitario -

Los instrumentos de IA son innegablemente útiles, y es por eso que el desarrollo y uso de IA se está acelerando exponencialmente. La IA ahora se usa para todo, desde la investigación hasta la redacción de argumentos legales, desde la generación de imágenes y la narración de historias para artistas hasta los codificadores de apoyo.

Sin embargo, a pesar de lo útiles que son estas herramientas, la IA presenta una grave preocupación ética, y aunque las herramientas de IA están siendo impulsadas para uso público en cantidades masivas en este momento, las discusiones sobre la ética de la IA siguen siendo solo eso: discusiones con poco impulso regulatorio detrás de ellas. Muchos países, como Australia, quieren considerar la regulación de la IA, pero tal regulación aún está lejos, y es cuestionable cuánta » innovación» de alto valor limitarían estas regulaciones en nombre de las mejores prácticas éticas.

- Anuncio Publicitario -

Mientras que el consumo ético de tecnología, se convierte en una prioridad cada vez mayor, la IA, por el contrario, se ha convertido en una especie de salvaje oeste, donde gran parte de los límites éticos los decide el propio centro ético del individuo.

Desde problemas de plagio y la posibilidad de que la IA comprometa la integridad de la investigación académica hasta sesgos que conducen a la discriminación y la posibilidad de pérdida de empleos e incluso muertes causadas por IA, necesitan desarrollarse con mejores marcos éticos en torno a la IA.

La IA tendrá un papel importante en la configuración de nuestro futuro. Necesitamos asegurarnos de que los fundamentos éticos sobre los que se construyen estas aplicaciones se consideren adecuadamente, primero, antes de permitir que la IA «tome el control» en cualquier contexto significativo.

En 2016, el Foro Económico Mundial analizó los nueve principales problemas éticos de la inteligencia artificial. Todos estos problemas se han entendido bien durante una década, lo que hace que la falta de movimiento para abordarlos sea tan preocupante. En muchos casos, las inquietudes destacadas por el FEM, que en ese momento estaban pensando en el futuro, están comenzando a convertirse en realidad, pero las inquietudes éticas aún no se han abordado.

La pérdida de puestos de trabajo a causa de la IA, particularmente en campos donde la base laboral tiende a ser mayor o tiene calificaciones educativas más bajas, es una preocupación ética que se conoce desde hace mucho tiempo, sin embargo, en todo el mundo, los legisladores y las empresas privadas han mostrado poca urgencia en ayudar a las personas afectadas. en la recapacitación y la búsqueda de nuevas oportunidades.

Al encargar trabajo a la IA mientras se reduce el tamaño total de la fuerza laboral, las empresas están creando una mejor posición de ganancias para sí mismas. Sin embargo, esto no es un beneficio para la sociedad a menos que la riqueza se transfiera nuevamente a ella.

Una solución sería que los gobiernos dejaran de gravar el trabajo y, en cambio, gravaran directamente los sistemas de IA. La riqueza pública generada al hacer esto podría usarse para proporcionar el apoyo de ingresos necesario a quienes están sin trabajo o se trasladan a trabajos peor pagados. Sin embargo, incluso cuando los empleos ya se están viendo afectados, no hay señales de siquiera un debate para transformar el sistema tributario en especie.

«Los sistemas de inteligencia artificial pueden ser engañados de manera que los humanos no lo harían», señaló el informe WEF de 2016.

Una investigación descubrió que ChatGPT pasó de responder correctamente un problema matemático simple el 98 % de las veces a hacerlo correctamente solo el dos por ciento de las veces. A principios de este año, una nueva aplicación de IA de Google cometió un error fáctico crítico y eliminó $100 mil millones del valor de mercado de la empresa.

Vivimos en una era en la que la información se mueve rápidamente y la desinformación puede afectarlo todo, hasta los resultados electorales críticos. Hay algunos intentos moderados por parte de algunos gobiernos de introducir leyes contra la desinformación. Australia, por ejemplo, desea enfocarse en «problemas sistémicos que representan un riesgo de daño en las plataformas digitales», pero las aplicaciones de IA se están liberando sin la obligación de ser precisas en la información que presentan, y el gran problema con la desinformación es que una vez que ha influido en alguien puede ser difícil corregir el registro.

- Anuncio Publicitario-
spot_img

Artículos Recientes

Más artículos