El tema de la IA generativa ha ocupado un lugar destacado entre los directivos empresariales y asistentes al congreso Cisco Live celebrado en Las Vegas.

Los directivos de Cisco se han apresurado a señalar que la firma ha colaborado en dicha tecnología con las empresas llamadas de hiperescala y que la ha implantado en toda su cartera de productos, pero la IA generativa plantea nuevos retos, sobre todo a las firmas que trabajan con grandes volúmenes de datos de clientes.

He aquí seis temas clave en el uso de la IA generativa.

Amenazas
En una mesa redonda con directivos, Jeetu Patel, vicepresidente ejecutivo y director general de seguridad y colaboración en Cisco, ha resumido los riesgos y beneficios de la IA generativa.

“Nunca había sentido tanto entusiasmo con una transición, ni tanta paranoia sobre lo que podría salir mal.

“Tenemos que estar seguros de que procedemos con mucho cuidado y no avanzar de cualquier manera.”

Ha afirmado que el tratamiento de la IA generativa en Cisco comporta la colaboración con el sector público, con miras a garantizar que se establezca un marco normativo a largo plazo, porque “nos dirigimos a un período en el que las normas del juego van a cambiar”.

Ética
Dev Stahlkopf, vicepresidenta ejecutiva y directora de Asuntos Jurídicos, ha recibido el encargo de crear un marco de IA responsable para Cisco. Según sus propias declaraciones, algunos de los elementos de este serán el desbloqueo gradual de herramientas y la protección de conjuntos de datos.

Ha señalado que los clientes de Cisco preguntan hasta qué punto deben confiar en la IA generativa y cómo la está integrando la empresa en sus herramientas. La directiva ha explicado que todo se reduce a satisfacer unas exigencias de transparencia y responsabilidad durante las conversaciones con los clientes, en las que se discute dónde y cómo se usa dicha tecnología, y se explica si el entrenamiento de esta se lleva a cabo mediante datos sintéticos o comprados.

“No usamos datos de clientes”.

“Pienso que también actuamos con mucho cuidado para que el caso de uso se ajuste al propósito, porque si no se puede exceder con facilidad.”

Protección de la propiedad intelectual
David Burns, vicepresidente asociado de automatización de redes y servicios compartidos de Cox Communications, ha explicado en una intervención al margen en Cisco Live que uno de los problemas del uso de chatbots de IA generativa es la incertidumbre a propósito del código fuente o lenguaje abierto que se usa al recopilar la información.

“Lo que nos preocupa es la propiedad intelectual.

“¿En qué casos deberían intervenir los abogados? Tenemos que actuar con mucha precaución y mucha cautela en esa cuestión.”
Burns ha expresado su optimismo ante la posibilidad de que la IA facilite el trabajo de los desarrolladores de software al proporcionarles herramientas que los ayuden a “anotar y documentar su código”, un área que, según ha señalado, suele ser un punto débil en el sector.

Coste
Chuck Robbins, consejero delegado de Cisco, ha afirmado que aún es pronto para valorar las inversiones de capital exigidas por los planes de la empresa para llevar la IA generativa a toda su cartera.

“Pienso que hemos recorrido toda la gama de posibilidades existentes y que aún no hemos llegado a ninguna solución definitiva.”

Modelización
Mientras el fabricante calibra cómo lograr que la IA generativa se implante a fondo en toda su cartera, Cisco ha dado a conocer varios productos basados en dicha tecnología.

Patel ha declarado que en la actualidad observan oportunidades en materia de datos, de modelos fundacionales y de mejora de las experiencias de empleados y usuarios.

Ha explicado que su firma tiene la intención de “crear modelos especializados y de asegurarse de ir en cabeza en modelos fundacionales”, y ha añadido que Cisco traza planes para asegurarse de que “hemos trabajado de verdad en casos de uso con datos que sean sólo nuestros”.

Marco
Liz Centoni, directora de Estrategia y directora general de Aplicaciones, ha afirmado que el sector de las telecomunicaciones y los países de todo el mundo deben entender las complejidades que entraña el uso de la IA generativa, que incluyen el establecimiento de un marco coherente.

Stahlkopf ha argumentado que las normativas deberían abarcar dos elementos. Por un lado, un enfoque del uso de la IA centrado en los riesgos, a fin de determinar cuáles serían las mayores amenazas. Por el otro, las conversaciones entre distintas jurisdicciones, a fin de evitar normativas discordantes que resulten ineficaces y limiten la innovación.