Preocupa si existen estándares éticos para el uso de IA generativa

- Anuncio Publicitario -

Muchas empresas vienen sumergiéndose en pilotos de IA generativa, desconociendo si cuentan con estándares éticos que guíen su uso, según un nuevo informe de Deloitte. Según este informe sobre el estado de la ética y la confianza en la tecnología de 2023, el 57% de los encuestados cree que las tecnologías cognitivas tienen más probabilidades de representar un riesgo ético grave.

Casi tres cuartas partes (74%) dijeron que sus empresas han comenzado a probar la IA generativa, mientras que el 65% ya la está usando dentro de sus negocios y el 31% ha comenzado a usar esta tecnología para fines externos, según el Estado de ética y confianza en la tecnología de 2023. Además de la IA generativa, el informe también describe qué tecnologías tienen más probabilidades de representar un riesgo ético grave y cuánto pueden costar los errores éticos a las empresas estadounidenses.

- Anuncio Publicitario -

Con tantas empresas probando y utilizando IA generativa, «lo ideal sería que la implementación de tecnologías emergentes y el desarrollo de principios éticos vayan de la mano para fomentar una mayor confianza en estas tecnologías emergentes», dijo Ammanath, quien es coautor del informe.

Aproximadamente la mitad (49%) de los encuestados afirmó que su organización tiene principios éticos definidos para la IA, y el 11% de los encuestados dijo que su organización tiene principios éticos específicos para otras tecnologías emergentes como la realidad digital, la tecnología de contabilidad distribuida, los vehículos autónomos, la computación cuántica, la robótica y experiencias ambientales, anotó.

La investigación de Deloitte encontró que el potencial de daño aumenta a medida que las tecnologías se vuelven más poderosas. «Con la aceleración del uso de tecnologías emergentes, esto subraya la urgencia de que las organizaciones que manejan diferentes tipos de soluciones tecnológicas emergentes consideren los riesgos específicos y las preocupaciones éticas exclusivas de sus casos de uso», dice el informe.

Según el informe de Deloitte, las tecnologías cognitivas, que incluyen la IA generativa, tienen el mayor potencial de riesgo ético y, al mismo tiempo, tienen potencial para el bien social. La encuesta de este año encontró que el 39% de los encuestados indicó que las tecnologías cognitivas tienen el mayor potencial para el bien entre todas las tecnologías emergentes, frente al 33% del año pasado.

Sin embargo, las tecnologías cognitivas también fueron clasificadas como las que tienen más probabilidades de representar un riesgo ético grave entre el 57% de los encuestados, en comparación con el 41% en 2022. Otras tecnologías emergentes con potencial de riesgo ético grave son la realidad digital (11%) y la computación cuántica (9%), según el informe.

Los datos son un componente crítico de las tecnologías cognitivas que utilizan grandes modelos de lenguaje. “Las tecnologías inseguras y sin protección pueden amenazar potencialmente la privacidad de los usuarios y de los interesados. Los malos actores también pueden explotar las tecnologías cognitivas a través de técnicas como el envenenamiento de datos, lo que hace que las tecnologías produzcan resultados inexactos y potencialmente dañinos”. Además, “Estas tecnologías también pueden ser notoriamente opacas en su diseño, lo que dificulta juzgarlas y evaluar su precisión, solidez, confiabilidad, explicabilidad y otros factores”.

Sin embargo, a menudo el uso de dichas tecnologías no tiene fines nefastos, por lo que el informe señala que “las tecnologías emergentes tienen una variedad de impactos potenciales, tanto beneficiosos como perjudiciales”. Los beneficios incluyen calidad, rapidez, seguridad y/o precio.

- Anuncio Publicitario-
spot_img

Artículos Recientes

Más artículos