Inteligencia Artificial, pone en disyuntiva seguridad vs ciberataques

- Anuncio Publicitario -

La Inteligencia Artificial fue la gran protagonista en la feria internacional de tecnología CES, llevada a cabo en Las Vegas: desde cepillos de dientes, parrillas de barbacoa hasta carros forman ahora parte de esta tecnología.

Los especialistas de Kaspersky realizaron una evaluación sobre la gran influencia de la IA en la ciberseguridad, hurgando sus implicancias y centrándose en el uso que, defensores y reguladores y ciberdelincuentes, pueden darle a esta herramienta.

- Anuncio Publicitario -

Kaspersky detalla cómo evolucionará el panorama de las amenazas relacionadas con la IA y reitera la importancia de contar con un marco regulatorio que permita el uso responsable de esta herramienta. Los aspectos más relevantes del estudio «El Impacto de la IA en la ciberseguridad» son los siguientes:

Vulnerabilidades más complejas

A medida que los Modelos de Lenguaje a Gran Escala (LLMs por sus siglas en inglés) se integran en más productos al consumidor, surgirán nuevas vulnerabilidades en la IA generativa y las tecnologías tradicionales, ampliando la superficie de ataque que los profesionales de la ciberseguridad deben proteger. Esto requerirá que los programadores estudien nuevas medidas de seguridad, como la aprobación del usuario para las acciones que inician los agentes de LLMs que básicamente son los sistemas de IA para entender y generar texto de manera similar a cómo hacemos los seres humanos.

Asistente integral de IA para los especialistas en ciberseguridad

Los investigadores y miembros del Red Team usan la IA generativa para crear herramientas innovadoras de ciberseguridad, lo que, llevaría a tener un asistente que utilice el LLM o el Aprendizaje Automático (ML, por sus siglas en inglés). Esta herramienta podría automatizar las tareas del Red Team, ofreciendo orientación basada en órdenes ejecutadas en un entorno de pentesting (ejercicio de prevención en el que un experto en ciberseguridad intenta encontrar y explotar vulnerabilidades en un sistema informático).

Redes neuronales para generar imágenes que ayuden a las estafas

Los estafadores podrían ampliar sus tácticas utilizando redes neuronales, para crear un contenido fraudulento más convincente aprovechando las herramientas de inteligencia artificial. Con la posibilidad de generar sin esfuerzo imágenes y videos convincentes, los agentes maliciosos plantean un mayor riesgo de intensificar las amenazas cibernéticas relacionadas con fraudes y estafas.

La IA no cambiará las amenazas este 2024 

Los especialistas de Kaspersky siguen siendo escépticos respecto a que la IA cambie significativamente el panorama de amenazas a corto plazo. Aunque los ciberdelincuentes adoptarán la IA generativa, lo mismo ocurre con los ciberdefensores, quienes utilizarán las mismas herramientas, o incluso otras más avanzadas, para probar la mejora de la seguridad en el software y las redes, lo que hace poco probable que alteren drásticamente el panorama de los ataques.

Iniciativas regulatorias relacionadas con la IA para el sector privado

La tecnología se ha convertido en un asunto de formulación de políticas y regulación. Está previsto que aumente el número de iniciativas regulatorias relacionadas con la IA. Los agentes que no son estatales, como las empresas de tecnología, dada su experiencia en el desarrollo y uso de la Inteligencia Artificial, pueden facilitar conocimientos invaluables para los debates sobre la regulación de la IA en las plataformas, tanto globales como nacionales.

Marca de agua para contenido generado por IA

Se necesitarán más regulaciones, así como las políticas de los proveedores de servicios, para señalar o identificar el contenido sintético, y estos últimos deben seguir invirtiendo en tecnologías de detección. Los programadores e investigadores, por su parte, contribuirán en la creación de métodos de marca de agua para facilitar la identificación y procedencia de los medios sintéticos.

- Anuncio Publicitario-
spot_img

Artículos Recientes

Más artículos