martes 19 de marzo de 2024
Inicio Blog

Inteligencia artificial: ¿una aliada o un peligro?

0
inteligencia artificial
El avance de la IA despierta nuevos debates acerca de cómo regular estos sistemas informáticos. Crédito: Expansión.

Ciberseguridad e Inteligencia Artificial (IA) son dos temas que actualmente están en el centro de atención de la sociedad. La creciente presencia de la IA en diferentes ámbitos -desde la salud hasta la industria- ha motivado un aumento en el riesgo de ciberataques y puesto en peligro la seguridad de la información. 

De esta manera, su uso, cada vez más frecuente, ha generado un debate sobre los desafíos que implica su intervención. Aunque la IA puede ofrecer beneficios significativos, también conlleva ciertos peligros que deben ser considerados.

No se puede abordar la inteligencia artificial sin un plan de seguridad que contenga las amenazas específicas de este tipo de sistemas, los cuales pueden ser vulnerables a intentos de manipulación. La transparencia en relación a la IA es fundamental, tanto por cuestiones de seguridad como éticas. Ante esto, resulta importante anticipar cómo se toman las decisiones y cómo se utilizan los datos.

No negamos que la IA es una gran herramienta, que incluso puede ser una gran aliada en la prevención de fraudes y ciberdelitos, sin embargo, los riesgos que la rodean son preocupantes. La posibilidad de sesgos en la data utilizada para entrenar los modelos de inteligencia artificial es peligrosa; si éstos no son representativos de la población en general, los sistemas pueden tomar decisiones erróneas y, en áreas como el empleo, la justicia, la salud o la vivienda, perpetuar la exclusión y la discriminación.

¿Qué ocurre con la privacidad de los datos? Los sistemas de inteligencia artificial tienen la capacidad de procesar grandes cantidades de datos, entre los que se encuentran información personal y datos sensibles, lo cual los hace atractivos para utilizar con fines ilegales o dañinos.

Sin embargo, las mayores preocupaciones del uso de IA son éticas. Su aplicación en seguridad física plantea riesgos en torno a la privacidad, las libertades civiles y a su implementación indebida para fines de vigilancia masiva. Por otro lado, los algoritmos pueden producir falsos positivos y, en ocasiones, identificar a personas inocentes como posibles amenazas.

Inteligencia artificial
El control correcto de la inteligencia artificial continúa siendo un desafío. Crédito: iPro Up.

Para garantizar los derechos humanos, es importante establecer principios éticos claros para el uso de la IA. Estos deben incluir la protección de la privacidad, la transparencia en la toma de decisiones y la equidad en el acceso a la información. Además, es importante establecer mecanismos de supervisión efectivos para garantizar que estos principios se cumplan.

La aplicación extendida de la IA y su desarrollo en áreas muy diversas de la sociedad, ponen en jaque la necesidad de una regulación para su uso. La Unión Europea (UE), por caso, ha propuesto un reglamento de IA que establece requisitos para estos sistemas, incluida la transparencia, la rendición de cuentas y la equidad. Estas leyes específicas pueden ayudar a garantizar que la IA se utilice de manera responsable y beneficiosa.

Si bien aún es temprano para determinar un impacto real en el uso de la IA, no perdamos de vista que el avance tecnológico es irreversible y lo hace a pasos agigantados, por lo tanto es indispensable estar atentos a su desarrollo y crecimiento puntual.

Por Daniel Ionadi, ingeniero y especialista en ciberseguridad de F5 LATAM.

Compartir:
Nota al Pie | Noticias en contexto