"La GPU es un avión, la CPU es un coche". Entrevista a Manuel Ujaldón

Publicado en 'Hardware General' por THE STIG, 6 Jul 2012.





  1. THE STIG

    THE STIG Miembro frecuente

    Registro:
    27 Jun 2012
    Mensajes:
    99
    Likes:
    36




    La multinacional Nvidia premiaba recientemente al profesor de la Universidad de Málaga Manuel Ujaldón, el cual lleva más de 10 años estudiando las posibilidades de los procesadores gráficos.

    Se le otorgaba por primera vez a un español el título CUDA Fellow 2012, que premia cada año al científico que mejor desarrolla sus facetas de difusión de las posibilidades de programación CUDA y su aplicación en el ámbito de la investigación relacionada con la explotación de los recursos de la GPU en tareas ajenas a los videojuegos.

    Recién estrenada esa distinción, en Xataka hemos querido conocer más de cerca los inicios de Ujaldón en este apasionante campo así como su trabajo y visión del futuro de las GPU. A continuación la entrevista de Xataka al profesor Ujaldón.

    Xataka: ¿Por qué elegiste como línea de investigación la GPU? ¿Es lo más interesante que está pasando en la Arquitectura de Computadores?

    Ujaldón: Diez años atrás, que fue cuando yo comencé en esto, era un soplo de aire fresco en mi área. No la GPU en sí, sino el poder aprovecharla para aplicaciones científicas
    en lugar de para video-juegos o gráficos en general, donde las cosas sí estaban consolidadas. Yo me encontraba entonces en una fase de renovación, buscando un nuevo tema con el que ilusionarme, y sentí que podría aportar cosas.

    Los primeros años fueron muy creativos, fascinantes. Ahora hay millones de personas trabajando en ello y se ha perdido ese sabor casero. Afortunadamente, ya que la popularidad alcanzada ha sido consecuencia de la eclosión de resultados que se han sucedido desde entonces.

    Xataka: Desde hace un tiempo las GPU están posicionándose como el componente hardware perfecto para ciertas tareas. ¿Qué tipos de tareas o algoritmos y por qué?

    Ujaldon: Fundamentalmente, son tareas de gran carga computacional y volumen de datos a procesar, a ser posible de forma independiente para poder trabajar en paralelo. Las investigaciones basadas en el genoma humano son un buen ejemplo, hay que analizar interacciones entre millones de genes provenientes de una extensa población.


    Sin embargo, esto no significa que el modelo de computación tradicional tenga fecha de caducidad. Si hacemos una analogía con el transporte, la GPU es el avión y la CPU es el coche
    En Barcelona, por ejemplo, secuencian 300 genomas al día, cuando sólo hace 10 años el proyecto genoma humano tuvo una envergadura descomunal. Es cierto que desde entonces hemos mejorado mucho el software para procesar el genoma, pero estos algoritmos aún tardarían semanas en computarse si no fuera por el uso de las GPUs. El progreso a nivel hardware ha sido mayor.

    Sin embargo, esto no significa que el modelo de computación tradicional tenga fecha de caducidad. Si hacemos una analogía con el transporte, la GPU es el avión y la CPU es el coche. Un Málaga-Pekín en coche es inviable, como lo es un Málaga-Torremolinos en avión. Son dos medios complementarios, ambos necesarios. Hay problemas computacionales para los que la GPU no sirve, y otros muchos que le quedan pequeños.

    Xataka: La GPU no suele ser un elemento muy visible para el consumidor. ¿hasta qué punto debemos prestarle más atención que a las CPU como terreno de innovación y como componente del PC?

    Ujaldón: En el mercado actual de la informática de consumo se venden tres GPUs por cada CPU. Y su margen de beneficio es también superior. El consumidor está dispuesto a pagar más por prestaciones gráficas, pues es lo que mejor luce y más disfruta.

    La novedad de este año es que los mayores fabricantes de CPU, como Intel y AMD, están integrando GPUs dentro de sus chips. Ya en 2013 será difícil adquirir una CPU que no lleve incorporado uno o varios procesadores gráficos dentro del chip. Tendremos entonces computación heterogénea, y los programadores deberán adquirir nuevas habilidades para aprovechar estos recursos: Saber cuándo hay que despegar el avión o arrancar el coche.

    Xataka. La última iteración del desarrollo de las GPU las ha llevado hasta los 28 nanómetros, mientras que las CPU han alcanzado los 22 nanómetros. Sin embargo, año tras año sale a la luz el debate sobre el límite físico en el tamaño de los transistores, debate que se va postponiendo cada vez más. ¿Cuándo crees que alcanzaremos ese límite?

    Ujaldón. La ventaja actual de la CPU es meramente corporativa. Intel, que es su principal valedor, tiene sus propias plantas de fabricación de chips e invierte en ellas dinero y capital humano. Nvidia, la marca líder de GPUs, no cuenta con esta infraestructura: en su lugar, subcontrata la fabricación a TSMC. Sin recursos propios, su capacidad de innovación es menor.

    La ventaja actual de la CPU es meramente corporativa


    Para enjugar esta desventaja, debería dar un paso al frente, y ya empiezan a salir las cuentas: Nvidia ha vendido más de 350 millones de GPUs en los últimos 5 años, y una planta de fabricación cuesta unos 2.000 millones de dólares, vigente tecnológicamente durante un par de años. Para 5 años, sale un coste aproximado de 10 euros por cada chip fabricado al ritmo de producción actual. Es superior a lo que le cuesta a Intel, pero revertiría en tantas mejoras sobre su hardware que abriría una nueva perspectiva para la compañía.

    El mayor desafío, sin embargo, es el tecnológico, porque en capital humano Intel lleva más de 30 años de ventaja.

    Respecto al límite en la miniaturización de los transistores, Intel está trabajando ya en la tecnología de 14 nanómetros. El siguiente hito son los 10 nm., y existe una hoja de ruta hacia los 7 nm. y 5 nm. donde se vislumbra el final evolutivo. Sin embargo, yo creo que aquí pasará algo similar a lo acontecido con la frecuencia del procesador veinte años atrás. Se decía entonces que llegaríamos a los 30 GHz, incluso cuando superamos 1 GHz en el año 2000.

    hemos aprendido que una alta frecuencia conduce a problemas de calor en equipos sobremesa y consumo en portátiles
    Ahora nos sonrojamos viendo que el procesador apenas ha conquistado los 3 GHz doce años más tarde, y esto ha sucedido porque en el camino hemos aprendido que una alta frecuencia conduce a problemas de calor en equipos sobremesa y consumo en portátiles, y el usuario valora más la fiabilidad y la autonomía energética. Encima, llega la GPU para demostrar todo lo que se puede hacer con procesadores de 0.5 GHz. Es así como descubrimos que los 30 GHz no son una necesidad.


    Con los nanómetros puede terminar sucediendo algo similar. Seguramente podamos fabricar el chip de 10 nm., pero los costes de producción van a dispararse, y aparecerán problemas de fiabilidad debido a la cercanía de los límites físicos del transistor. Entonces valoraremos mejor lo que tendremos con chips de 14 nm., pensaremos que en esa variable ya hemos sacado buena nota, y nos dedicaremos a otras asignaturas pendientes. Por ejemplo, la GPU tiene un aprobado raspado en frecuencia, pero ha estudiado mejor la arquitectura para sacar un notable, y ostenta un sobresaliente en costes y volumen de producción. El resultado es un producto muy competitivo.

    Xataka. ¿Ves entonces viable que se siga manteniendo la Ley de Moore en los próximos años?

    Ujaldón. La Ley de Moore ya se ha saturado en los últimos años. El potencial tecnológico del procesador era inmenso en sus inicios, pero ya no resiste ese ritmo. Lo más importante es que el nivel alcanzado es suficiente para lo que la sociedad espera de los chips.

    Siempre querremos coches a 300 Km/h., pero con 120 Km/h. de techo sigue siendo el medio de locomoción más utilizado. Y es que hay muchos desplazamientos en los que más velocidad significa más riesgo, más consumo, más incomodidades, y al final no compensa.

    Xataka. Hablando un poco del ámbito profesional, ¿qué diferencia existe entre las tarjetas gráficas domésticas y las profesionales como la familia Quadro o Tesla
    de NVidia, o las FirePro de AMD? ¿Son diferencias en el resto de componentes de la tarjeta o también en la propia GPU?

    Ujaldón. En la GPU los cambios son marginales, porque ésa es la fórmula mágica: Fabricar un solo procesador y venderlo en todos los perfiles de usuario. Luego el chip se monta sobre una tarjeta, donde la memoria marca la diferencia. El resto de componentes apenas influye.

    Lo malo es que esta gama de productos tiene un volumen de ventas muy inferior en el mercado, conduciendo a una relación rendimiento/coste desfavorable para el conjunto de la tarjeta gráfica. A mí me gusta más aportar por las GeForces, donde los jugones me hacen algunos favores: Disparan sus ventas, fomentan la proliferación de placas base para acompañarlas, drivers para configurarlas, fuentes para alimentarlas, documentación para resolver las incidencias, etc.

    Xataka. Para acabar, desde tu posición de investigador, ¿qué escenario de innovación parece el más interesante para los próximos años?


    Ujaldón. Lo que más me tiene enganchado es la bioinformática. Contribuir a acelerar problemas reales ligados a la detección de tumores o mejorar el tratamiento de enfermedades degenerativas gracias a las GPUs ha sido de lo más reconfortante.

    Perteneciendo al Dpto. de Arquitectura de Computadores de la UMA, la oportunidad para ello pasa por realizar estancias de investigación en laboratorios ligados a la medicina. Si consultas mi curriculum de los últimos años, verás hasta 7 estancias largas en Estados Unidos y Australia, siempre en Dptos. universitarios como “Biomedical Informatics” asociados a hospitales. Además, mis colaboradores médicos tienen esa faceta humana y solidaria que resulta más difícil encontrar en mi gremio, y de la que me gusta contagiarme.

    Desde aquí muchas gracias al profesor Ujaldón por atendernos y contestar las preguntas de esta entrevista.



    FUENTE

    xataka.com/entrevistas/los-programadores-deberan-adquirir-nuevas-habilidades-para-aprovechar-los-recursos-de-la-gpu-entrevista-al-profesor-ujaldon
     
    A Rocknils y GOACH les gustó este mensaje.


  2. GianpiereS

    GianpiereS Miembro de bronce

    Registro:
    9 Abr 2009
    Mensajes:
    1,505
    Likes:
    313
    Interesante, ¿surgirá un nuevo lenguaje para aprovechar el procesamiento por GPU o alguno de los actuales empezará a aprovechar el procesamiento para GPU?. Lo sabremos en un futuro no muy lejano :)
     
  3. Rocknils

    Rocknils Miembro de bronce

    Registro:
    27 Jul 2011
    Mensajes:
    2,480
    Likes:
    732
    Una excelente entrevista, darse cuenta q el potencial de las GPU puede marcar un nuevo modelo de negocio y el limite físico de los dispositivos abre una nueva visión de sus usos.
     
  4. THE STIG

    THE STIG Miembro frecuente

    Registro:
    27 Jun 2012
    Mensajes:
    99
    Likes:
    36
    NVIDIA comunica que la Universidad de Oxford y un consorcio de las principales instituciones académicas del Reino Unido han instalado el superordenador de GPU más potente del país para impulsar el avance de la investigación en una gran variedad de campos de la ciencia y la ingeniería.


    El sistema, bautizado con el nombre de “Emerald” (Esmeralda en español), se presentó ayer en el nuevo Centro para la Innovación en Alta computación (Center for Innovation in High Performance Computing) del laboratorio STFC Rutherford Appleton de Didcot y está formado por un cluster de 84 nodos equipado con 372 GPU NVIDIA® Tesla® M2090 que proporcionan más de 114 teraflops de rendimiento.

    Emerald se ha desarrollado para que los científicos e ingenieros de todo el Reino Unido puedan acelerar los proyectos de investigación de carácter eminentemente computacional en campos como la astrofísica, la bioinformática, la química, la ingeniería, la genómica, la biociencia, la nanotecnología o la física, entre muchos otros.

    NVIDIA también ha anunciado la designación de la Universidad de Oxford como Centro de Excelencia CUDA (CCOE) en reconocimiento a su continuo trabajo de investigación y formación en el ámbito del cálculo paralelo a través de las GPU NVIDIA y el entorno de programación CUDA®.

    ----- mensaje añadido, 06-jul-2012 a las 12:01 -----

    El GPU es el futuro e intel se ha dado cuenta de ello, no por algo están saliendo los procesadores integrados con HD2000, HD3000, etc, ya que cada vez se depende menos del CPU y el GPU se hace más cotidiano (televisores, celulares, tablets...)
     
  5. Utsubeshi

    Utsubeshi Miembro maestro

    Registro:
    1 Oct 2010
    Mensajes:
    623
    Likes:
    151
    OpenCL...

    el problema del CUDA es que solo sirve con tarjetas de video Nvidia, OpenCL es lo mismo. no tiene distincion de marcas y open source :yeah:

    lo que hace intel con sus HD 4000 es no quedarse atras de los APU, pero lamentablemente son muy caros para lo ofrecen comparandolos con los APU Trinity

    Actualmente ya existen programas q aprovechan OpenCL para procesamiento de datos, CS6? Winrar? 7Zip? entre otros, pueden googlear y averiguar mas... yo en general ando actualizando lo que uso a "optimizado con OpenCL" para aprovechar la potencia de mi GPU

    ahora el problema tb de la ultima linea de NVIDIA es su pobre GPGPU (General-Purpose Computing on Graphics Processing Units - http://es.wikipedia.org/wiki/GPGPU - ) versus la Serie 7000 de AMD ( sobre todo la 7970 que es casi una Knights Coner de Intel valiendo una fraccion :wow:, grandiosa para workstations

    ya pocos dias para testearlo con una 7870 :)
     
  6. necktru

    necktru Miembro de plata

    Registro:
    16 Jun 2011
    Mensajes:
    4,439
    Likes:
    1,406
    [​IMG]