Al llegar al lugar de la entrevista, Xabi Uribe-Etxebarría hace un gesto con la mano, como para decir «espera, estoy contigo en un minuto». Está chateando por WhatsApp. Unos segundos después, se acerca sonriente y lleno de excusas. «Perdón, es que estaba hablando con Sculley, que hace tiempo que no nos vemos». «¿Con John Sculley, el de Apple?», le pregunto. «Sí, con ese...», responde tímidamente al tiempo que me enseña la pantalla de su móvil, con Whatsapp aún abierto. Alcanzo a ver el nombre del exdirector ejecutivo de Apple, ese al que Steve Jobs hechizó un día y le hizo abandonar la presidencia de PepsiCo, y me da tiempo a leer una frase de Sculley, al final del diálogo: «A ver si nos vemos pronto, te echo de menos...». Empieza la entrevista y resulta que no solo conoce a Sculley, sino que ha fichado para Sherpa, su empresa, a Tom Gruber, el creador de Siri, y también a la mítica Joanna Hoffman, la que fue mano derecha del mismísimo Steve Jobs durante tantos años y que al parecer era la única capaz de cantarle las cuarenta al «boss» sin temer a las represalias.
Un tipo curioso este Xabi Uribe-Etxebarria. En
Estados Unidos su empresa está considerada como una de las diez más importantes
del mundo en Inteligencia Artificial. Y a él han llegado a compararle con Elon
Musk. Pero aquí, en España, su tierra natal, casi nadie sabe quién es. Y los
que le conocen no le creen capaz de llegar donde ha llegado. La conversación
con él, pues, promete ser interesante...
¿Qué es la Inteligencia Artificial?
Es la capacidad de una máquina de imitar el
intelecto humano. Estoy hablando de habilidades que son casi exclusivas de las
personas: razonar, aprender de ejemplos, etc.
¿Y qué no es la Inteligencia Artificial?
Hay un montón de sistemas, que se basan en
machine learning, es decir, en la capacidad de aprendizaje, que dicen ser
Inteligencia Artificial, pero que no lo son.
Muchos asimilan la IA a la consciencia.
¿Existe, o podrá existir en el futuro, un sistema de IA que sea consciente de
sí mismo?
Sí, antes o después, sí. A menudo, la gente de
a pie suele relacionar la IA con robots, androides, hologramas o cualquier cosa
que pueda tener forma humanoide. Pero la IA es mucho más que eso. Y hay muchos
desarrollos de IA que están en nuestra vida cotidiana sin que la mayoría lo
sepa. Cuando desbloqueo el móvil con mi huella o mi cara, cuando voy a un
parking y me leen la matrícula y no tengo que meter el ticket, cuando uso
Google Maps… Hay un montón de aplicaciones que usan la IA para facilitarnos la
vida y que habrían sido imposibles sin ella. Es decir, ya usamos sistemas de
IA, y no se parecen en nada a un robot.
Evidentemente, en todos esos ejemplos no hay
una consciencia…
No, claro. Si ni siquiera sabemos aún cómo funciona
el cerebro humano, ¿Cómo vamos a ser capaces de imitarlo? Es una conversación
que suelo tener con Rafa Yuste (neurobiólogo español e impulsor del Proyecto
Brain, puesto en marcha en Estados Unidos por el presidente Obama en 2013), que
me dice que ni siquiera sabemos aún lo que es un pensamiento. Los humanos
vivimos en una especie de realidad virtual, fabricada por nuestro cerebro... Y
no sabemos cómo funciona. Por lo tanto, es difícil tratar de imitar algo que
aún no sabemos lo que es.
¿Hasta dónde podremos llegar entonces?
Lo que sí conseguiremos hacer relativamente
pronto es imitar el modo en que el cerebro humano procesa la información, es
decir, imitar la inteligencia humana. Los expertos dicen que eso sucederá
alrededor del 2045 y llaman a ese evento «singularidad», el punto en que la
inteligencia de una máquina va a sobrepasar la inteligencia de un humano. Y
subrayo lo de «un humano», que no es lo mismo que decir la de los humanos en
general. En algunos casos, y en tareas muy concretas, eso ya se ha conseguido.
Sin embargo, hay toda una serie de cualidades de los humanos que aún estamos
muy lejos de imitar.
¿Como por ejemplo?
Hay una capacidad, llamada «small sample
learning», que es uno de los grandes retos que tiene la IA ahora mismo. Se
trata de la capacidad de aprender a partir de muy pocos ejemplos. Para que una
IA sea capaz de reconocer, por ejemplo, la imagen de un elefante, hay que
alimentarla con miles, con millones de imágenes diferentes de elefantes, de
formas, de colores... Sin embargo, si a un niño que nunca ha visto un elefante
le enseñas una sola foto, una sola vez, ya lo reconocerá para siempre, incluso
si después le enseñas no ya una foto, sino un simple dibujo o un garabato de un
elefante. Esto las IA no lo pueden hacer, y nos queda aún muchísimo para que lo
consigan. Otro ejemplo es lo que se llama el "transfer learning" o
transferencia de aprendizaje. Si sabes jugar, por ejemplo, al ajedrez, te
costará muy poco aprender otros juegos de tablero, ya que utilizas para ello
las partes comunes con otros juegos. Esto las máquinas tampoco saben hacerlo.
¿Se supone que esa capacidad sí que estará
presente cuando llegue la singularidad...?
Sí, claro. De hecho, en transfer learning ya
hay algo en las máquinas, sobre todo para traducción de idiomas. Se pueden
transferir muchas reglas de un idioma a otro para traducirlo.
Lo cual nos lleva a la pregunta siguiente:
¿Hay que tenerle miedo a la Inteligencia Artificial?
Yo creo que miedo no... Hay que tenerle
respeto, pero no miedo.
¿En qué sentido?
Siempre tenemos un cierto miedo a lo
desconcido. Y digo que hay que tenerle respeto porque la IA es un arma muy
poderosa, aunque yo estoy convencido de que traerá grandes beneficios a la
Humanidad. Cualquier avance científico o tecnológico, de por sí, no es bueno ni
malo. Es neutro. Suelo hacer una alalogía con la fusión nuclear, que puede
servir igual para generar energía limpia que para construir bombas de
hidrógeno. Todo depende del uso que le demos. Por lo tanto, no hay que tener
miedo de la IA, sino de los humanos que la van a usar. La IA, igual que
cualquier otro avance tecnológico, solo hará lo que un humano le diga que haga.
¿Por qué entonces hay manifiestos firmados por
cientos de científicos, entre ellos el ya desaparecido Stephen Hawking,
alertando de los peligros de la IA?
Porque son tantas las posibilidades que tiene,
tanto para el bien como para el mal, que se hace necesario un gran ejercicio de
responsabilidad a la hora de desarrollarla y utilizarla. En ese sentido, junto
a Rafael Yuste y otros, estamos tratando de hacer lo que llamamos
"juramento tecnocrático", que es análogo al juramento hipocrático de
los médicos, un código de conducta que todos deben jurar antes de ejercer.
Creemos que la IA debe empezar a mirarse también desde un punto de vista
humanista, y no solo tecnológico.
¿Y en qué punto está ese juramento
tecnocrático?
El documento ya existe, y ahora mismo estamos
en conversaciones con varios gobiernos, instituciones y universidades para que
esto sea pronto una realidad. Gobiernos como el español, o el de Chile, ambos
ya muy involucrados. También queremos llevarlo a la ONU.
Otro debate gira en torno a la posibilidad de
combinar la IA con otras ciencias para aumentar las capacidades de los
humanos...
Sí, unida a las neurociencias, la IA puede
aumentar, por ejemplo, nuestra memoria o nuestras capacidades mentales. Y ahí
hay otro debate. Si esas mejoras en las capacidades humanas no se hacen de
forma proporcionada, podemos incluso llegar a crear nuevas "castas"
de humanos, por lo que es necesario asegurar el reparto equitativo de estos
aumentos de capacidades, y eso podría llegar incluso a convertirse en un nuevo
derecho humano.
¿Es partidario entonces de limitar la IA? Si,
por ejemplo, la unimos a un robot, podríamos tener robots inteligentes.
¿Limitaría usted las posibilidades de acción de esos robots con algo parecido a
las leyes de la robótica propuestas por Isaac Asimov?
No, no lo haría. No se trata de limitar a las
máquinas. Cualquier limitación que se les ponga también se les podría quitar en
cualquier momento... Lo que sí que habría que limitar son las aplicaciones de
la IA, lo que los humanos hagamos con ella. Debería limitarse su uso de forma
que cuacluier aplicación se haga siempre y solo en beneficio de la Humanidad.
¿Y cómo se podría garantizar eso?
Pues para eso es, precisamente, el juramento
tecnocrático. No se trata de decirle a una máquina que no mate gente, sino de
que esa máquina no se construya nunca.
Eso entra de lleno en el debate actual sobre
la industria de las armas. Drones que deciden de forma autónoma si disparar o
no, etc...
Efectivamente, de eso se trata.
Usted es creador de Sherpa, una empresa
española de IA. ¿Qué es lo que aporta su empresa en este campo?
Empezamos siendo un asistente digital, tipo
Siri, pero hemos creado tanta tecnología que hemos ido evolucionando a una
empresa de servicios de Inteligencia Artificial, y así se está reconociendo en
todos los rankings mundiales de IA.
Sherpa es, de hecho, una de las más
reconocidas del mundo, ¿no?
Sí, según Datamation, por ejemplo, estamos en
la lista de las diez compañías más relevantes del mundo en IA. Ocupamos el
noveno lugar, pero es que en esa lista están, Microsoft, Amazon, Google...
gigantes de la tecnología. Y nuestra empresa, que es pequeña y de Bilbao, está
ahí, en medio de todos los grandes.
¿Qué ha hecho Sherpa para merecer tanto
reconocimiento?
Tenemos una serie de desarrollos, de
algoritmos, creados por un equipo top en el que trabajan algunos de los mejores
expertos del mundo. Hemos creado esos algoritmos en cuatro grupos o líneas: la
primera son los sistemas conversacionales, que puedes implementar en cualquier
máquina, altavoz inteligente, automóvil, televisor, etc, y convertirlo en un
sistema con el que puedas hablar. La segunda línea son los recomendadores y
personalización de contenidos, que es un sistema que te puede recomendar desde
noticias a televisión o música aprendiendo de tus gustos y tratando de
anticiparse a ellos. En las otras dos estamos trabajando, están sin terminar
aún, y estamos haciendo descubrimientos sorprendentes que nos colocan por
delante de cualquier otra empresa del planeta. Una es lo que llamamos análisis
de contenidos, que mide la polaridad de la noticia y es capaz de identificar
noticias falsas.
¿Y cómo exactamente hace eso?
Llevamos a cabo cinco análisis, que
identifican cinco patrones que nos dicen si es o no un fake. El primero es
análisis del lenguaje que se utiliza en la noticia. Hay una serie de patrones y
estilos que las fake news utilizan mucho. Otro es el índice de viralidad, que
es cómo se disemina la noticia en las redes sociales. Otro análisis es el del
medio, la fuente, quién ha publicado la noticia. En total, cada patrón aporta
un porcentaje de probabilidad de que sea una fake. Al combinarlos, sabemos si es
o no una noticia falsa.
Nos faltaba aún la cuarta línea de trabajo de
Sherpa...
Sí, es la privacidad. Estamos haciendo enormes
avances en este campo. Avances que nos sitúan en cabeza y que están muy por
delante de lo que hacen otras empresas, incluídas las más grandes. Se trata de
tecnología que garantiza que tus datos sean privados.
¿Y cómo puede una pequeña empresa de Bilbao
tener algo que decir en temas que entran de lleno en el terreno de las grandes
empresas de tecnología, como Google, Amazon o Microsoft, que trabajan en lo
mismo?
No solo tenemos algo que decir, sino que
muchas cosas las hacemos mejor que ellos. Para poner los pies en la tierra,
nosotros no competimos con Google, sino con un equipo que trabaja en Google,
que es su equipo de Inteligencia Artificial. Y dentro de eso competimos en un
terreno muy concreto. Google hace desde buscadores a coches autónomos, y
nosotros no entramos en eso.
¿Y cuáles son las cosas concretas que haceis,
por ejemplo, mejor que Google o que otros grandes?
Pues en recomendación somos mucho mejores, más
que Netflix o Apple, entre otros. En privacidad de datos estamos más avanzados
que Google. Cuando empezamos cn ese tema tratamos de usar sus plataformas, pero
tenían carencias, así que empezamos la nuestra, y los resultados son mejores
que los de Google, aunque ellos aún no lo saben.
¿Con qué mimbres cuenta para desarrollar todo
esto? Necesitará un equipo de primera...
Sí, para mi el equipo es lo más importante, y
a eso he dedicado muchos esfuerzos. Por ejemplo, hemos incorporado a Tom
Gruber, el creador de Siri, al que conozco desde que estaba en Apple. Apple
siempre ha estado interesada en nosotros, y Gruber nos consideraba como la
empresa más avanzada en IA. Así que hace un año dejó Apople y se vino con
nosotros. Pero no solo él, hace apenas unos días hicimos público el fichaje de
Joanna Hoffman, la mano derecha de Steve Jobs durante toda su carrera,
directora de marketing de Apple y creadora de la imagen única que tiene esa
compañia en el mundo. El resto del equipo quizá no sea tan mediático, pero no
tienen nada que envidiar a los dos que he mencionado y que son muy relevantes
en el mundo de la tecnología.
Se os reconoce mucho más fuera que dentro de
España. ¿A qué se debe?
Creo que es por falta de conocimiento, y
también de interlocutores. Se trata de un sector muy puntero, que normalmente
se desarrolla fuera, lo cierto es que nos resulta mucho más fácil explicarlo en
Estados Unidos, donde tenemos un gran reconocimiento, que hacerlo aquí, en
España, donde no pueden creerse que una empresa pequeña y de Bilbao haya hecho
lo que ha hecho... Aquí hay que hacerse perdonar los éxitos.
Por último, ¿Quién es y de dónde viene Xabi
Uribe-Etxebarria?
Estudié ingeniería técnica electrónica y
organización industrial. Empecé un doctorado que no terminé, porque creé mi
primera empresa, que se dedicaba a la atención al cliente online para grandes
empresas. Y luego monté Sherpa, al mismo tiempo que hacía cursos en el MIT y
estudiaba arquitectura, carrera de la que me falta aún un año para acabar. Pero
no quiero hablar de títulos porque creo que cada vez son menos relevantes. Lo
más importante es la capacidad de adaptarse y de aprender.
Han llegado a compararle con Elon Musk...
Sí, quizá porque me gusta hacer muchas cosas
diferentes, tener un proyecto principal pero hacer al mismo tiempo otros
proyectos. Mo objetivo no es el de hacer mucho dinero, sino el de crear un
impacto positivo para el mundo. Por eso hay proyectos que me motivan mucho,
como el de llevar la Inteligencia Artificial con Sherpa al resto del mundo,
pero no es el único. Tengo otros proyectos que no tienen nada que ver con
tecnología. Por ejemplo, me encanta la historia y he dedicado, y dedico, años a
investigar sobre la primera vuelta al mundo. He ido recopilando en muchos países
documentos de Elcano, mapas, antiguos testimonios de protagonistas olvidados y
que han cambiado el mundo.
Entonces, ¿cuál es la huella que le gustaría
dejar?
Me autoexijo mucho, pero lo que me gustaría es
dejar un impacto positivo en el mundo. Tengo muchísimo miedo a la muerte, y un
dia leí que le vas perdiendo el miedo a la muerte en la medida que vas
cumpliendo objetivos en la vida. Y en eso estoy.
Fuente: https://www.abc.es