La falta de formación en IA, un problema para las empresas

Al menos 4 de cada 10 organizaciones sondeadas por ISACA no están ofreciendo ningún tipo de capacitación a sus empleados.

La tecnología de inteligencia artificial (IA) se extiende por el mundo, pero no lo hace exenta de riesgos. De acuerdo con un estudio de asociación ISACA, la IA en el trabajo es una realidad en un 73 % de las organizaciones europeas, pero sólo un 30 % forma a empleados en puestos relacionados con la tecnología y el 40 % no ofrece ningún tipo de formación. La mayoría de los profesionales (74%) ni siquiera están familiarizados con la IA o sólo un poco.

A esta falta de capacitación se une la faltan normas de comportamiento sobre el uso de la IA. Son pocas (17 %) las compañías encuestadas que han implementado en estos momentos una política exhaustiva y formal.

Un tercio (34 %) de los consultados por ISACA cree que deberá aumentar sus conocimientos en los próximos seis meses para conservar su trabajo o seguir progresando. El 27 % afirma que necesitará hacerlo en un plazo de siete meses a un año. En total, hasta un 86 % opina que la formación será impresincindible en los próximos dos años.

“La IA va a seguir cobrando protagonismo, contribuyendo a configurar la forma en que los sectores de TI y ciberseguridad se transforman e innovan”, comenta Chris Dimitriadis, director de Estrategia Global de ISACA.

“La IA se está utilizando en dos sentidos: los actores maliciosos la usan como arma para desarrollar ciberataques más sofisticados y, como respuesta, los profesionales de la ciberseguridad la necesitan para detectar y responder mejor a esas amenazas”, explica.

Así, “a medida que los ciberdelincuentes utilizan la IA para llevar a cabo ataques cada vez más sofisticados y selectivos, es más importante que nunca que los ciberprofesionales dispongan de una formación formal y de políticas empresariales claras sobre IA a las que atenerse”, ahonda Dimitriadis.

“Para que las empresas se beneficien del uso de la IA, necesitan contar con las competencias adecuadas para poder identificar nuevos modelos de amenazas, riesgos y controles”, razona el directivo de ISACA. Deben “seguir el ritmo de la amenaza en evolución que supone el auge de la IA, protegiendo su reputación y reforzando la confianza de los clientes”.