1. Caro Visitante, por que não gastar alguns segundos e criar uma Conta no Fórum Valinor? Desta forma, além de não ver este aviso novamente, poderá participar de nossa comunidade, inserir suas opiniões e sugestões, fazendo parte deste que é um maiores Fóruns de Discussão do Brasil! Aproveite e cadastre-se já!

Dismiss Notice
Visitante, junte-se ao Grupo de Discussão da Valinor no Telegram! Basta clicar AQUI. No WhatsApp é AQUI. Estes grupos tem como objetivo principal discutir, conversar e tirar dúvidas sobre as obras de J. R. R. Tolkien (sejam os livros ou obras derivadas como os filmes)

"Computação em GPU irá revolucionar a ciência”, diz cientista da NVIDIA

Tópico em 'Ciência & Tecnologia' iniciado por abylos, 18 Jul 2012.

  1. abylos

    abylos Usuário Usuário Premium

    David Kirk abriu o primeiro dia da conferência internacional sobre computação em Curitiba

    David Kirk, cientista que liderou o desenvolvimento de novas tecnologias gráficas na NVIDIA de 1997 a 2009, foi o grande destaque do primeiro dia do GCDF (GPU Computing Developer Forum), conferência internacional sobre computação promovida pela empresa que integra o 32º Congresso da Sociedade Brasileira de Computação (CSBC).

    “A computação em GPU irá revolucionar a ciência, pois mesmo uma CPU com vários cores, capaz de fazer diversas funções, não consegue processar grandes quantidades de dados de forma rápida. A GPU tem outra arquitetura e possui centenas de cores para auxiliar no processamento de uma quantidade grande de informação”, destacou Kirk, que é autor do livro “Programming Massively Parallel Processors”, uma das principais referências para o estudo de computação paralela em todo o mundo.

    Este conteúdo é limitado a Usuários. Por favor, cadastre-se para poder ver o conteúdo e participar (não demora e não possui custos)

    David Kirk liderou o desenvolvimento de novas tecnologias gráficas na NVIDIA de 1997 a 2009​

    Para aproveitar esse potencial da GPU é que a NVIDIA desenvolveu a tecnologia CUDA, arquitetura capaz de tornar as placas de vídeo capazes de executar instruções de diversas linguagens de programação, como Java e C++, tornando-a compatível com o processamento destes aplicativos e não limitando mais a GPU a processar gráficos, apenas.

    “Este potencial da supercomputação com GPUs traz benefícios, principalmente, para a área científica. Não falamos apenas de fazer as coisas com mais rapidez. É claro que realizar uma função dez vezes mais rápido que antes é ótimo, mas queremos também tornar possível analisar outros tipos de dados, e realizar pesquisas que antes não eram feitas porque o processamento necessário não era viável”, destacou Kirk.

    Outros pontos abordados foram as vantagens da nova geração de placas de vídeo NVIDIA com arquitetura Kepler para o trabalho com computação paralela. Segundo o executivo da empresa, o primeiro objetivo da nova geração é o aumento da performance. Além disso, o cientista enfatizou que outro foco é melhorar a eficiência energética, trazendo não apenas mais desempenho, mas também mais performance por watt consumido. Neste aspecto, a geração Kepler trouxe uma grande evolução, pois entrega até três vezes mais capacidade de processamento por watt gasto. “Hoje, os supercomputadores mais eficientes do mundo, com menor consumo de energia, são equipados com GPUs”, afirma Kirk.

    Para o uso em supercomputação, estes benefícios da nova geração também são explorados. Com uma arquitetura nova de transistores, menores que a geração anterior, a NVIDIA pode aumentar a quantidade destes elementos na GPU, e trazer um ganho de performance que em vários momentos oscila entre 2x e 3x superior em relação à geração anterior, a Fermi, tudo com maior eficiência energética.

    Outra grande vantagem é a capacidade da GPU de atuar de forma independente em relação a CPU. As gerações anteriores necessitavam das instruções do processador em cada etapa, então retornavam o valor final e aguardavam novas instruções. Agora, o processador gráfico pode atuar de forma autônoma, realizando toda a série de ações sem necessitar da CPU constantemente e tornando o funcionamento da computação paralela ainda mais eficiente.

    O GPU Computing Developer Forum (GCDF) começou nesta terça-feira (17/07) e segue até o dia 18 de julho, parte da Conferência Anual da Sociedade Brasileira de Computação.

    SERVIÇO:
    Evento: GCDF (GPU Computing Developer Forum)
    Data: 17 e 18 de julho de 2012
    Horário: 09h30 às 18h00
    Local: Centro Politécnico da Universidade Federal do Paraná (UFPR)
    Endereço: Rua Cel. Francisco Heráclito dos Santos – Jardim das Américas – Curitiba/PR
    Site oficial do evento:
    Este conteúdo é limitado a Usuários. Por favor, cadastre-se para poder ver o conteúdo e participar (não demora e não possui custos)


    Este conteúdo é limitado a Usuários. Por favor, cadastre-se para poder ver o conteúdo e participar (não demora e não possui custos)

    ~~

    Pessoal de Curitiba, algum de vocês sabe/viu/pretende ver esse evento?
     
  2. Amon_Gwareth

    Amon_Gwareth Paragon

    é bem verdade issae. consegui, em questão de horas, fazer um bruteforce pesado num computador doméstico utilizando o SDK do CUDA

    Este conteúdo é limitado a Usuários. Por favor, cadastre-se para poder ver o conteúdo e participar (não demora e não possui custos)


    é bem legal e bem simples.
     
  3. Turgon

    Turgon 孫 悟空

    Espero que consigam diminuir o preço das placas de vídeo com isso. A minha na época eu paguei por volta de R$700 reais.

    E só de pensar em aumentar mais ainda a qualidade e processamento do vídeo, dá água na boca para jogar certos jogos.
     
  4. Lord Leonan

    Lord Leonan Usuário

    Concordo com ele.

    Atualmente temos áreas de pesquisa que necessitam de grande quantidade de processamento.

    Não tem motivo usar somente o poder do processador para efetuar essas tarefas, sendo que temos a GPU.

    Sem contar que computadores domésticos com um processador relativamente barato podem fazer muitas simulações interessantes com o apoio de uma GPU.
     

Compartilhar