Hemeroteca

Política de Cookies

Este blog utiliza cookies propias y de terceros para mejorar su experiencia de navegación. Si continúa navegando, consideramos que acepta su uso. Puede obtener más información en nuestra página de: Política de Cookies.

Soy ….

Soraya Cronista compulsiva. Periodista por vocación y de formación. Consultora NTIC por experiencia. Mi pasión es mi hija. Me gusta el café. Más sobre mí.

Mi Time Line en Twitter

RSSTwitterLinkedin
25 enero, 2016 Posted by sorayapa Publicado en Bigdata, Entrevistas Big Data, Inteligencia Artificial
2 comentarios

Francisco J. Martín: data scientist es el trabajo más sexi y corto de la historia

Lean detenidamente estas tres frases: “El data scientist va a ser el trabajo más sexi y más corto de la historia”, “Hadoop pasará a la historia como uno de los grandes errores de la tecnología” y “Los algoritmos de machine learning  ya son commodities“. ¿Sorprendidos? Quien así habla es el científico valenciano Francisco J. Martín, un referente  mundial en el ámbito de la inteligencia artificial. Su última aventura empresarial se llama BigML, un sistema pionero de machine learning as a service. 

Martín creó iSOCO, la primera spinoff del CSIC, y también Strands, cuyas patentes de música compró Apple, ahora quiere democratizar el aprendizaje automático. En esta amplia entrevista, además de repasar toda su trayectoria personal y profesional, Francisco desmonta todo lo que pensábamos que era cierto y correcto en el ámbito de big data y data science. En cualquier caso, lean hasta el final y juzguen ustedes mismos.

Francisco J. Martin (drcha) con Álvaro Otero (COO de BigML)

Francisco J. Martin (drcha) con Álvaro Otero (COO de BigML)

Francisco J. Martín nació en Las Navas de la Concepción, un pequeño pueblo de Sevilla, aunque se crió en Valencia. Dejó los estudios y se puso a trabajar, fue camarero en la Ford de Almusafes, probó en las fuerzas especiales y vendió periódicos de lunes a domingo. Un buen día, ya en la mili, encontró una octavilla de publicidad para estudiar COU a distancia. Lo hizo, aprobó y su vida cambió.

“Comencé informática en la Universidad Politécnica de Valencia. Me obsesioné con la informática, dejé de leer literatura. Terminé la carrera con un 9,3 de media. Me gradué un viernes de Julio de 1995, y el domingo me fui a Barcelona a comenzar la tesis en el Instituto de Investigación en Inteligencia Artificial  becado por el CSIC. En 1996, con 26 años, hice una casa de subastas en una noche, al poquito de salir el protocolo HTTP/1.1. En 1998 el director del Instituto, Ramón López de Mantaras, la persona que trajo la inteligencia artificial a España, y que desarrolló uno de los primeros sistemas expertos, me  pidió que acompañase a Tomas G. Dietterich a buscar casa en Sant Cugat del Valles. Dietterich es uno de los fundadores de machine learning y la única persona viva, no retirada, que participó en el primer workshop de machine learning en 1980 en Pittsburgh. Venía a España de año sabático y estuve una semana llevándole a ver casas. Ese verano, estando con mi mujer en la playa pensé: es el momento de empezar a aplicar todo lo aprendido”.

En 1998 Francisco crea Metahabitat, su primera empresa, para ayudar a la gente a encontrar piso. Pero inmediatamente surgió la idea de iSOCO una de las empresas más creativas que ha tenido España, y una de las mayores incubadoras de talento en cuanto a creación de software. De iSOCO salieron  grandes emprendedores:

“Cuando estaba creando Metahabitat pensé que la oportunidad no estaba en poner estas ideas en funcionamiento sino en crear la tecnología para que muchos otros pudieran poner estas ideas en funcionamiento. Así surgió iSOCO (Intelligent Software Components, SA). Fue el primer spinoff del Consejo Superior de Investigaciones Científicas. En este país no había habido ninguna spinoff. Conseguí 65 socios para montar la empresa. Estuvimos nueve meses de gestión y en junio del 99 la lanzamos. Nació con el conocimiento que habíamos desarrollado en tono a la inteligencia artificial. La idea era crear pequeños componentes de software que se pudieran combinar para hacer aplicaciones más complejas, más inteligentes. En el 99 ya hacíamos personalización para General Electric, para Piero Bonissone, quien luego sería su Chief Scientist durante muchos años. Hicimos una aplicación que, en base al perfil de la persona y a la forma de navegar en la web, decidía si dar una póliza de seguro o no a un cliente. En septiembre de ese mismo año montamos el primer buscador que tuvo ya.com, también una casa de apuestas. Martín Varsavsky nos quiso comprar, nos ofreció mil millones de pesetas por un 20 % de la compañía. A finales del 2000 el banco Santander, a través de BtoBFactory,  invirtió y compró parte de la compañía, multiplicamos por más de 400 la inversión inicial. De iSOCO salieron unas 15 spinoff, empresas como Scytl, fundada por Andreu Riera, Justinmind fundada por Xavier Renom, Polymita, DisiD,  también pasaron emprendedores como Sinuhe Arroyo, creador de Tiger. iSOCO generó un gran talento y bastante riqueza”.

El 2 de septiembre del 2002 comienza la aventura americana:

“Dejé la compañía, terminé la tesis y me fui a EEUU a trabajar con Tom Dietterich, la persona a la que había ayudado a encontrar piso. Me fui a Corvallis, Oregón, para pasar unos meses y ya llevo trece años. Es un sitio espectacular. Es la ciudad que genera más patentes per cápita en los EEUU. Es ideal para innovar y decidí quedarme. Con Tom trabajé dos años, estaba investigando para el DARPA. Eran los prolegómenos del CALO Project (proyecto del que salió Siri). En esa época, y también de forma casual, vi que iTunes guardaba el número de veces que un usuario escuchaba cada canción. Vi que los ratings implícitos, es decir las veces que se escucha una canción, y la fechas, era un sistema más adecuado para saber lo que realmente le gusta al usuario. Con esa idea en la cabeza fundé Strands y generamos una serie de patentes. En el 2007 Antonio Asensio (Grupo Z) nos invirtió 25 millones de dólares y compró parte de la compañía. Después BBVA también invirtió. Conseguimos un total de 55 millones y comenzamos a hacer un montón de cosas. Ahora la compañía está licenciando la tecnología a numerosos  bancos. Apple compró todas las patentes relacionadas con la música”.

En el 2011 nace BigML de la mano de cinco socios.

“Decidí dejar Strands. Salí un sábado y el domingo ya pensé en BigML. Había leído un artículo en The Economist de febrero de 2010, The data deluge,  que es la inspiración de lo que está pasando actualmente. Solo las compañías que se puedan permitir un grado de talento muy alto en machine learning serán capaces de extraer jugo a sus datos. Aunque las herramientas son muy complicadas, están hechas por científicos para científicos. Decidimos montar la compañía en enero de 2011, los otros fundadores son Tom DietterichJos VerwoerdAdam AshenfelterJosé Antonio Ortega (JAO). Actualmente somos 30 personas y damos servicio a más de 25.000 usuarios en más de cien países (en España tenemos 1103). Hemos invertido 5 millones de dólares. Tenemos equipos en España, concretamente en Barcelona y Valencia, en Oregón, California, Indiana, Illinois, e incluso en Brasil”.


¿Qué es BigML?

“Es una herramienta que sirve para aprender de los datos de forma muy fácil. No hay que saber nada de data science para usar BigML. Es una cosa bastante mágica, el sistema encuentra patrones de forma automática. Nuestro objetivo es automatizar las tareas del machine learning y democratizarlo. BigML está a disposición de todo el mundo, basta con arrastrar un fichero de datos. De forma automática el sistema analiza los datos y crea un data set estructurado, después es capaz de encontrar los patrones y generar un formulario para jugar con las variables. La maquina aprende sola,  por tanto sabe cuáles son las variables que importan (la importancia se mide en términos de reducción de error) así como los datos más anómalos (la anomalía es cuando no se sigue un patrón). Esto lo hemos utilizado mucho para detectar fraude y funciona muy bien. También se pueden crear correlaciones a nivel de valor de cada variable, es decir el sistema va a encontrar qué reglas se encuentran dentro de esos datos y con qué confianza, es lo que se conoce como el Market Basket de análisis. Hay reglas de más confianza que se cumplen al cien por cien, pero si esa regla no se cumple en un conjunto nuevo de datos es que hay anomalías o problemas”.  

¿Herramientas como BigML matan al científico de datos?

«No, les ayuda a ser mucho más eficientes. Lo que nos distingue a los humanos es nuestra capacidad de crear herramientas para amplificar nuestras capacidades. Esto es algo que continuamente repetía Steve Jobs. No tiene sentido que pretendamos resolver los problemas de data science con más personas y no mejores herramientas.  De la misma forma que no inventamos un nuevo algoritmo para calcular una raíz cuadrada cada vez que resolvemos una. Con el análisis de datos ocurre lo mismo. No se necesitan infinidad de data scientists.   Por ello el data scientist va a ser el trabajo más sexi y más corto de la historia. El data scientist desaparece,  lo llevo diciendo desde el 2012. Por una parte es imposible ser un data scientist, es decir no se puede ser competente en tantas disciplinas tan complejas. Por otra parte, muchos data scientists  y las empresas que lo contratan se equivocan si piensa que van a crear nuevos algoritmos.  La comunidad científica de machine learning lleva más de treinta y cinco años trabajando en ello. Ahora te encuentras con gente que te dice que quiere crear nuevos algoritmos cuando la comunidad científica  no ha sido capaz. La ignorancia es muy atrevida y la gente no sabe que desde hace ya más de una década poco se ha hecho que no sea meramente incremental. Los algoritmos están comoditizados. Actualmente cualquier nueva empresa cuyo argumento sea que tener científicos de datos para hacer algoritmos no conseguirá financiación. Los VCs ya han aprendido eso. Recomiendo este artículo Data, not algorithms, is key to machine learning success.  Los algoritmos no marcan la diferencia, la diferencia la marcan los datos: cómo los estructuras, y cómo los representas para que los algoritmos funcionen.  Si miras en las competiciones de Kaggle para dominios estructurados los ganadores siempre son <<ensembles>> de arboles de decisión. Los ganadores son los que mejor ingeniería de predictores realizan. Por lo tanto, las empresas grandes necesitan ingenieros de datos, capaces de automatizar la extracción, transformación y carga de datos.  Estás tareas son poco sexi para alguien que quiere hacer algoritmos.  Por otra parte, es más fácil que alguien de negocio aprenda a interpretar resultados de los algoritmos y  proponga nuevos <<predictores>> que un data scientist aprenda del negocio. Además la ingeniería de predictores también empieza a estar automatizada. La idea es que una empresa grande en lugar de necesitar 100 data scientists, cada uno intentando hacer algoritmos, sólo necesita 5 además de 10 ingeniero de datos y buenas herramientas, tanto de ETL como de ML, que les ayuden a automatizar todas las tareas. No sería justo pensar que las máquinas pueden automatizar la mayoría de trabajos con la excepción de la los científicos de datos”.

¿Podemos decir que sois pioneros en el mundo?

“Sí, somos los pioneros del machine learning as a services”. Varias empresas de tecnologías, muy grandes y muy conocidas, se han ido acercado a nosotros con la intención de comprarnos. Pero nunca nos han encajado los planteamientos. Por una parte pensamos que dejar BigML  en manos de otros podría limitar su crecimiento, la innovación y la democratización del machine learning que nos propusimos al iniciar la compañía. Así que siempre hemos pedido precios desorbitados. Luego ellos nos han intentando copiar y lanzar sus propios servicios pero es difícil copiar la pasión y la obsesión para que los usuarios disfruten usando el producto”.

¿Cómo es vuestro modelo de negocio?

“BigML es gratis cuando se utiliza en modo desarrollo, hasta 16 MB por tarea. También damos una versión de hasta 4GB por tarea a los estudiantes y profesores. Las gran mayoría de las universidades más conocidas del mundo tienen estudiantes utilizando BigML. Los ingresos provienen de las versiones privadas que funcionan en los clouds de nuestros clientes, algunos muy importantes a nivel mundial. Los clientes usan la herramienta en diagnósticos, tratamientos de enfermedades, para lead scoring en marketing, detección de fraude, etc. La mayoría de las veces desconocemos  lo que hacen con  BigML. Lo único que decimos es que no se pueden usar la herramienta para hacer algo ilegal, como predecir la mejor hora para atracar un banco. En cualquier caso toda la infraestructura de BigML está Amazon, nosotros no tenemos ni un sólo servidor”.

bigMl_grafico1Entonces ¿No tenéis grandes infraestructuras con ecosistema Hadoop o Spark?

“Hadoop pasará a la historia como uno de los grandes errores de la tecnología. Cloudera, Hortonworks o MapR, compañías que consiguieron hasta un billón de dólares ahora tienen muchas dificultades para seguir vendiendo sólo Hadoop ya que el número de clientes que lo pueden necesitar es muy reducido. En Hadoop no puedes hacer ningún cálculo iterativo fácilmente lo que hace que la computación sea muy compleja. Hace poco leí un artículo de alguien que era capaz de procesar 10 terabytes de datos en Amazon por diez dólares. Hacer eso en Hadoop te cuesta miles sin contar el coste de las personas. Y Spark es el nuevo Hadoop. Si todo funciona a través de un API para qué quiero pasarme horas y horas instalando y configurando Spark.  Al final habrá una empresa que me prestará el servicio. A los negocios les interesa los resultados y no si se han calculado en una máquina con mucha memoria o de forma distribuida en varias. Eso sólo nos interesa a los geeks”.

¿Qué diferencia hay entre machine learning y deep learning?

“Deep learning es una subárea del machine learning donde lo que se utiliza es una representación automática. Cuando se trabaja con dominios no estructurados como imágenes o sonidos ¿cómo se le dice al ordenador que entienda una imagen?  Porque decirle un número es fácil pero una imagen no. La máquina tiene que saber qué son píxeles, cuántos pinta y en general un montón de información alrededor de la representación de la imagen. Todo el proceso de construcción de una red neuronal (deep learning) está muy basado en expertos, en humanos que saben cuál es la codificación de la red y tardan muchísimo tiempo. Tarda menos la red neuronal en aprender que los expertos en configurar las redes. Esa experiencia, esa configuración es costosísima y no todo el mundo sabe hacerlo. Al final, para todo lo que es deep learning habrá un número de aplicaciones muy específicas. Por ejemplo si quieres hacer un reconocedor de lamparitas tendrás un API para eso, todo estará automatizado”.

Por último, una curiosidad ¿Por qué piensas que Google ha abierto TensorFlow?

“TensorFlow es muy complejo, necesita mucha normalización y mucha configuración para que funcione. Han abierto el sistema como forma de atracción de talento. Se estima que Google tiene entre el uno y el cinco por ciento del mejor talento mundial en machine learning del mundo. Si haciendo público TensorFlow es capaz de atraer a cinco personas que sean capaces de modificar la herramienta lo que se ahorra en sus procesos de reclutamiento es mucho mas y nadie va a poder competir con Google porque nadie tiene un billón de imágenes para clasificar. Tan sólo 54 personas en todo el mundo han contribuido en TensorFlow. Es un ejemplo más de que sólo unas cuantas personas muy capacitadas pueden crear o cambiar estos algoritmos, el resto de los mortales nos tenemos que conformar con llegar a saber utilizarlos.  Por eso es inconcebible que las empresas piensen que sus data scientists van a ser capaces de crear nuevos algoritmos de aprendizaje o mejorar los existentes. Lo que deben es centrarse en aplicarlos de la forma más eficiente posible.  Eso suele ser un trabajo aburrido y no tan sexi como el de inventor de algoritmos.  Por ponerlo en otros términos, no todos los días alguien inventa una teoría de la relatividad”.

2 comentarios

  1. Cristhian dice:

    Entonces, ¿qué deberíamos hacer las personas que estamos actualmente interesadas en Machine Learning y Big Data? ¿Deberíamos solo conocer aspectos necesarios de forma general de cada uno de estos temas?

    Entonces, ¿no es buena idea seguir una carrera relacionada a Data Science o ML?

    Me gustaría saber eso, ya que estoy en los últimos años de mis estudios universitarios y he estado muy interesado con respecto a estos temas, pero si no va a ser posible, preferiría moverme hacia otro lado según el mercado y utilizar estos conceptos solo cuando sea necesario.

    Gracias, muy buen post 🙂

    • sorayapa dice:

      Hola Cristhian y disculpa la tardanza en responder. Te sugiero que se lo preguntes a él directamente, lo puedes hacer en Twitter, su usuario es @aficionado .
      Gracias !!
      Soraya

Contestar a sorayapa

Responder a sorayapa Cancelar respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


  • Responsable: Soraya Paniagua Amador
  • Fin del tratamiento: controlar el SPAM, gestión de comentarios.
  • Legitimación: tu consentimiento
  • Comunicación de datos: no se comunicarán los datos a terceros salvo por obligación legal.
  • Derechos: acceso, rectificación, portabilidad, olvido
  • Contacto: spamador@gmail.com
  • Información adicional: más información en nuestra Política de Privacidad.