Radeon Instinct - Big GPUs to process Big Data

Discussão em 'Tecnologia & Novidades Hardware' iniciada por NoobTuga, 13 Dezembro 2016.

  1. NoobTuga

    NoobTuga Membro PCDIGA

    Registo:
    14 Março 2016
    Mensagens:
    1,820
    Likes Recebidos:
    619
    Localidade:
    Algures perto de Lisboa
    Até agora do que saíu do evento da AMD que está sobre NDA, refere a Radeon Instinct.

    A série Radeon Instinct aparece porque nós produzimos atualmente 2.5 Quintillion Bytes of data por dia e para processar tanta coisa ou alimentar projetos que precisam de tanto horse power, surge a série Radeon Instinct focada em datacenters.
    [​IMG]
    [​IMG]
    Agora passando à lineup:
    [​IMG]
    Isto é o que temos até agora, mas podemos fazer alguma especulação:
    MI6 (lol dat britain dudes)
    Com base na informação que temos em relação a TFLOPS e consumo, provavelmente é baseada em Polaris 10.
    MI8
    Mais uma vez com base na informação que temos em relação a TFLOPS, consumo e tamanho, provavelmente será baseada na Fury Series, ou seja, HBM
    MI25
    Esta já se sabe que é baseada em VEGA, mas não se sabe quantos TFLOPS, apenas se especula que tenha 25TFLOPS em FP32, consequentemente 12.5TFLOPS em FP16. Mesmo assim, já é mais do que a Titan X Pascal.
    Se quiserem ver mais informação, deixo o video do Paul's Hardware que esteve no evento:

    Fonte: http://radeon.com/en-us/instinct/
    Última edição: 13 Dezembro 2016
  2. NoobTuga

    NoobTuga Membro PCDIGA

    Registo:
    14 Março 2016
    Mensagens:
    1,820
    Likes Recebidos:
    619
    Localidade:
    Algures perto de Lisboa
    Do mesmo evento sobre NDA, saíu também um bicho que vai fazer frente ao Telsa P100 da NVIDIA e é o VEGA Cube:
    [​IMG]
    Como podem ver, este cubo tem dimensões de 4x3 inches (10x7,6 cm aproximadamente) consegue ter 100 TFLOPS em FP16. Para ter base de comparação deixo aqui algo bastante interessante:
    [​IMG]
    Portanto teoricamente, o Vega Cube tem performance em TFLOPS equivalente ao cérebro humano. Descendo a fasquia e comparando com outras coisas criadas pelo homem, temos o supercomputador Drive PX2 desenhado para self-driving cars com 16TFLOPS em FP32 (8TFLOPS em FP16) e o acelerador Tesla P100 com 21.2TFLOPS em FP32, estes dois últimos feitos pela NVIDIA. No consumo de energia curiosamente coincide com o do Tesla P100, 300W.
    Agora a questão: o que é que o Vega Cube tem de especial? Bem, segundo a AMD pode ser montado na vertical uns em cima dos outros e uma vez que é tão pequeno ao ponto de caber numa mão, conseguimos ter supercomputadores mais potentes e mais pequenos.
    Com isto, a AMD no lado dos GPU tem aqui uma linha de produtos bastante agressiva para marcar o regresso ao mercado dos servidores/datacenters.
    Fontes: http://wccftech.com/amd-vega-cube-100-tflops-supercomputer/
    http://www.nvidia.com/object/tesla-p100.html

Partilha esta Página

Users a ver o Tópico neste momento (Users: 0, Visitantes: 0)