Podría afirmarse que la inteligencia artificial (IA) es en la actualidad el tema de mayor importancia en el ámbito de la tecnología. Aunque la ciencia computancional sobre la que se asienta la IA inició su desarrollo en los años 50, el ritmo de innovación ha experimentado varias aceleraciones durante la última década.

Están muy claras las transformaciones que se han producido en el ámbito estricto de la tecnología: la llegada de las redes neuronales, un incremento en la capacidad de procesamiento de los semiconductores y el abandono estratégico de los sistemas de IA cuyos algoritmos se basan en parámetros en favor del aprendizaje autorreforzado y multiplicativo, esto es, máquinas que se vuelven más inteligentes al recibir mayor volumen de datos y transitar por nuevos escenarios.

El desarrollo ha sido abierto y colaborativo. Los beneficios de la IA en eficiencia de procesos y –potencialmente– en precisión son obvios. Por dicho motivo, la actividad en I+D, la realización de pruebas piloto y los despliegues comerciales se encuentran prácticamente en todos los sectores de la economía, desde la sanidad y la automoción hasta las redes de telecomunicaciones. Un estudio reciente de Vodafone indica que un tercio de las empresas ya utiliza la IA en la automatización del negocio y que un segundo tercio tiene planes para usarla. La difusión de la IA a esta escala y este ritmo podrían llevarla a un nivel comparable al de la adopción de la electricidad, el motor de combustión y el ordenador personal.

Las dos caras de todas las monedas

¿Todo ello se hará realidad? Depende de cómo se gestione la tecnología. He pasado mucho tiempo en conversaciones con las principales firmas tecnológicas y de telecomunicaciones. Si bien es evidente que la IA despierta un gran interés en casi todo el mundo, la discusión todavía está anclada en generalidades. Parafraseando:

  • La IA es la Cuarta Revolución Industrial.
  • Sabemos que la IA es importante y queremos hacer algo con ella, pero no sabemos qué.
  • Nuestra firma quiere ponerse a la cabeza en IA.
  • ¿Cómo podemos triunfar con la IA?
  • Gracias a la IA somos una firma mucho más eficiente.
  • Se agradece el entusiasmo.

En cambio, no se habla tanto sobre las implicaciones éticas y legales de la renuncia al control en nombre de la eficiencia. Está bastante claro que sufrimos una disonancia cognitiva. Los beneficios nos impiden ver los riesgos.

¿Cómo podemos darles respuesta?

Un punto crucial es el equilibro entre el sesgo programado y el interpretativo. Esto es, en qué medida las máquinas están programadas para actuar tal como los humanos queremos que actúen (de acuerdo con nuestros propios valores), y en qué medida aprenderán a emitir un “juicio” ellas mismas. Dicha cuestión tiene consecuencias directas sobre cuestiones de responsabilidad.

A fin de clarificar la cuestión, vamos a plantearnos una serie de preguntas sobre el uso de la IA en diferentes industrias.

Vehículos autónomos. Si un coche autónomo va a estrellarse inevitablemente, ¿cómo decidirá contra quién o contra qué se estrella? Si llegamos a la conclusión de que el coche se ha equivocado, ¿quién cargará con la responsabilidad? ¿El propietario? ¿El fabricante? ¿Un desarrollador independiente de IA (si dicha tecnología se ha externalizado)?

Justicia penal.  Si se encarga a un algoritmo el cálculo de probabilidades de que individuos encarcelados reincidan, ¿qué parámetros tendrá que utilizar? Si se descubre que las predicciones de dicho algoritmo no tenían más precisión que una tirada de moneda a cara o cruz, ¿quién cargará con la responsabilidad por su uso?

Redes sociales. Si Facebook desarrolla un algoritmo que filtre las noticias falsas que circulan por su plataforma, ¿qué parámetros deberá usar? Si después se descubre que los contenidos que habían llegdo a los canales de noticias de los usuarios eran deliberadamente engañosos o falsos, ¿a quién corresponde la responsabilidad? ¿Al editor, o a Facebook?

He tenido varias razones para elegir estos puntos. En primer lugar, porque están sacados de la vida real y no son meras hipótesis. Aunque se refieran a empresas específicas, las implicaciones afectan a cualquier firma que quiera aplicar la IA. En segundo lugar, porque nos sirven como ejemplo de la dificultad de eliminar los sesgos sociológicos de los algoritmos diseñados para imitar el juicio humano. En tercer lugar, porque subrayan el hecho de que la IA está avanzando tan rápido que las regulaciones y leyes no se adaptan a tiempo y el debate va a parar al terreno etéreo de la filosofía moral. Comúnmente, los sistemas legales modernos se fundamentan en la responsabilidad de individuos y entidades (ya sean empresas o gobiernos) específicos. ¿Pero qué ocurrirá si una máquina inanimada ocupa el lugar del individuo?

En realidad, nadie lo sabe.

Cuestión de confianza

Aparte de los problemas legales que afectan a la IA, debemos tener en cuenta también el posible impacto de las cuestiones de confianza. La IA surge en un momento en que la confianza del consumidor en las empresas, instituciones democráticas y organismos de gobierno sufre graves sacudidas. Al combinarse dicha circunstancia con la ubicuidad de las redes sociales y una proporción cada vez más grande de millennials en la población total, el poder del consumidor ha alcanzado niveles sin precedentes.

A menudo se dice que Google, Facebook y Amazon jugarán con ventaja en cuanto la IA cobre fuerza, a causa del enorme volumen de datos de consumidores que controlan las citadas empresas. Querría desmentir dicho aserto en dos planos distintos. En primer lugar, la IA es una ciencia abierta a todo el mundo, todo el mundo puede recurrir a ella y todo el mundo lo hará. El algoritmo del que se beneficie Facebook no cuenta con ninguna ventaja sobre el de British Airways.

En segundo lugar, la preocupación por la legitimidad del uso de datos ha cobrado fuerza durante los últimos años tras el escándalo de Cambridge Analytica y la promulgación del Reglamento General de Protección de Datos. Todo ello se refleja en lo que podríamos llamar la paradoja tecnológica: los mismos que aún confían en la buena voluntad de la industria tecnológica tienen mucho menos fe en sus hijos más célebres (ver gráfico siguiente, hacer clic para ampliar).

En un mundo con IA, la confianza y el concepto más amplio de capital social dejarán de ser una mera cuestión de responsabilidad social corporativa (RSC) y se transformarán en materia prioritaria para los consejos de administración y quizá también en una magnitud de la que se informará a los inversores.

Se trata de una cuestión de máxima importancia para las firmas tecnológicas y de telecomunicaciones, por el papel central que estas tienen en el suministro de las infraestructuras necesarias para una economía basada en datos. Así pues, quizá no debamos sorprendernos de que Google, Telefónica y Vodafone formen parte de una vanguardia que quiere avanzarse a establecer unos principios rectores para la IA, fundamentados en los valores de transparencia, equidad y progreso humano. A la vista de las cuestiones que nos hemos planteado, queda abierta la pregunta por cómo se efectuará el seguimiento de las diversas actuaciones y cómo se corregirán cuando sea necesario. Son preguntas de gran calado y no será fácil darles respuesta.

– Tim Hatt – director de Investigación, GSMA Intelligence

Las opiniones editoriales expresadas en este artículo son exclusivas del autor y no reflejan necesariamente los puntos de vista de la GSMA, sus Miembros o Miembros Asociados.