Logo Hardware.com.br
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas

Intel Larrabee - Informações e especificações [boatos/oficiais]

#1 Por apterix 02/09/2008 - 17:55
Como todo mundo sabe a Intel durante muitos anos dominou, e ainda domina, o mercado das CPUs, mesmo quando ela não tinha mais performance que a concorrente.
E ela controlou o mercado da CPU como quis, freando o aumento do desempenho em cada geração para sempre ganhar mais dinheiro com as diversas atualizações de suas CPUs.

Com a evolução rápida das GPUs e o surgimento do conceito GPGPU a Intel se deparou com alguns problemas:

Como brigar com uma GTX 280 que consegue ter a mesma capacidade de processamento em ponto flutuante que 100 Xeons core2?

Como brigar com o conceito GPGPU que pode trazer uma queda de importância no desempenho final em aplicativos e jogos em relação aos CPUs?

Como concorrer com a plataforma CUDA, da nVidia, que veio para suprir as deficiências que a GPU tem afim de concorrer mais ainda com as CPUs?

No início dessa briga ouvimos falar de placas com chipset Intel sem possibilidade de SLI e até de uma crise de relacionamento entre a Intel (líder das CPUs) e a nVidia (líder das GPUs).

Contudo a Intel deve ter percebido que ela não iria conseguir derrubar a nVidia através de sanções de tecnologias (seja pela relação que a nVidia tem com a VIA ou até mesmo pelo boato da nVidia estar desenvolvendo um x86, enfim) e passou a concorrer diretamente com ela. E dessa concorrência surgiu um nome: Larabee.

O Larabee será uma plataforma baseado no X86 e extendida para o uso como GPU. Teoricamente o que isso significa? Será muito mais fácil programar algum software no Larabee do que em qualquer GPGPU.

Dinheiro e tecnologia a Intel tem para afundar a AMD e a NVIDIA por anos se quiser (e se fizer bem feito).
Mas antes de tudo devemos lembrar que:
- A Intel faz muita propaganda do Larabee, mas mostra muito pouca coisa e quase nada de documentação técnica e oficial
- Não terá compatibilidade com o Directx 11, o que fará com que todos os jogos tenham que ser desenvolvidos para a sua plataforma ou não rodarão nela e isso implica em uma verdadeira briga com o pacote da Microsoft

Será a Intel capaz de brigar com o Directx? Ela diz que sim e mais: Irá revolucionar o conceito multi-tarefa que ocorre hoje com as GPUs.

Tirando a limpo (atualizado constantemente):

1) Larabee é o que? Uma CPU? GPU?
É uma GPU baseado nos x86 (portanto uma CPU) extendida para o conceito GPGPU.

2) O que é o conceito GPGPU?
General Purpose GPU, em outras palavras, traz um propósito mais genérico para as GPUs. Elas não mais atendem só a jogos, agora elas podem carregar seu windows, otimizar seu Photoshop etc com muito mais eficiência que uma CPU.

3) O CUDA, da nVidia, então é um GPGPU?
O GPGPU é definido para qualquer GPU programável e o CUDA é um aperfeiçoamento sobre a programação da GPU, em outras palavaras, supri as falhas ou carências que uma GPU programável tem.

4) Onde está a AMD/ATI em tudo isso?
A ATI também permite a programação de suas GPUs e a semelhança da nVidia tem uma plataforma de desenvolvimento, o CTM (Close to The Metal).
Mas a ATI tem problemas sérios com isso, porquê:
- O CTM não está sendo amplamente adotado, em parte porque não tem um tacnologia que o impulsione como é o caso da engine de física PhysX da nVidia que só existe com o uso do CUDA e que é compatível com mais de duas centenas de títulos atualmente
- A ATI não tem interesse em que uma HD4870 substitua mais 100 opterons em cálculo de ponto flutuante, já que ela pertence a AMD; Ainda mais quanto a AMD está no vermelho devendo mais de um bilhão de dólares
- Como o CTM nasceu morto, a alternativa seria usar o CUDA, o que alavancaria ainda mais o poderio do CUDA+PhysX da nVidia (detalhe: a nVidia já ofereceu gratuitamente ambas as tecnologias e a ATI recusou)

5) Então a AMD/ATI ficará de fora do GPGPU?
A ATI um dia terá que aceitar o CUDA se não ela nunca será compatível com o PhysX e este já é e será, a menos que a Intel consiga dizer o contrário com a Havok, a engine mais utilizada de física.
Por outro lado a ATI já desenvolve GPU com o objetivos que na maioria das situações só os CPUs são capazes e já temos um nome: As placas FireStream (concorrentes da Tesla da nVidia), que são bem caras, mas que o lucro compensa ao concorrer com os Opterons da própria empresa.

6) A ATI hoje tem bom desempenho no conceito GPGPU?
Não. O CTM, com já disse, nasceu morto e não tem tido interesse por parte das softhouses. Se ela usar CUDA, aí sim posso dizer que ela tem um potencial enorme para o conceito GPGPU e quem ganhará com isso será o usuário final.

7) O conceito GPGPU é tão importante assim?
Sem dúvida. A próxima geração da Apple utilizará placas nVidia para aumento de performance dos aplicativos e o mesmo ocorrerá com vários aplicativos do Windows. Inclusive o Directx 11 será apoiado nesse conceito subtraindo recursos da GPU em prol do aumento de performance do sistema operacional (chamado de COMPUTE SHADER) e provavelmente terá seu auge com o sucessor do Vista, hoje conhecido como Windows Seven.

E se não fosse tão importante a Intel não estaria hoje entrando também no mercado de GPUs. Ela sabe que o rumo do processamento tomou outra direção e seria uma facada no próprio peito não considerar entrar de cabeça no mercado das GPUs.

8) E a plataforma da AMD GPU+CPU (objetivo principal da aquisição da ATI pela AMD) não teve sucesso?
Apesar da idéia ser interessante, ela nunca gerou frutos na prática, seja no aumento do desempenho ou no surgimento de novas tecnologias.
A Intel promete fazer essa integração com o Larabee e a nVidia já está desenvolvendo a plataforma NANO onde uma GPU se encarregaria de cuidar de todos os processos pesados de cálculo e uma CPU VIA responsável por suprir, dentro das instruções do X86, tudo aquilo que a GPU não puder fazer.

Como vocês vêem, a idéia do GPGPU (liderado hoje pela nVidia) e do que muitos já estão chamando de GPCPU (propósitos gerais para CPU, no caso do Larabee, liderado pela Intel) é forte, já existe na prática (no caso da nVidia) e mostra o quanto as CPUs poderão tornar-se insignificantes já em 2009 (onde até mesmo um simples processador VIA poderá agüentar até o jogo mais TOP com uma GPU cuidando da maioria dos cálculos).

9) Qual linguagem o Larabee irá usar?
C/C++
--------------------------------
Esse tópico tem como objetivo reunir todos os boatos e anúncios oficiais sobre o Larabee, ainda que essas informações sejam raras na Intenet.

Peço ainda a quem postar novas informações que classifique-a como [BOATO] ou [OFICIAL].
--------------------------------


Intel Release Technical Information on ‘Larabee’


Intel have released technical details about its upcoming line of microprocessors with the code-name of ?Larrabee?, in advance of the company?s presentation at the SIGGRAPH (Special Interest Group on Graphics and Interface Techniques) conference, in Los Angeles next week.

The chips will act as a springboard for a many-core x86 chip architecture. Intel says the processors should be on the market around 2009/10.

Larabee will launch an industry-wide effort to design and optimise software for thousands of cores expected to power the computers of the future, according to Intel.

“It’s revolutionary in that it is different from conventional GPU architectures, but evolutionary in that it uses existing (i.e. x86) technology,” said Jon Peddie, president of Jon Peddie Research, said.

Intel says the technology will offer a ?new approach to the software rendering 3-D pipeline, a many-core programming model, and performance analysis for several applications.?

The architecture behind Larabee was derived from Intel?s Pentium Processor. The new chip adds updates including a wide vector processing unit (VPU), multi-threading, 64-bit extensions and pre-fetching. Each enhancement facilitates a sizable increase in available power.

The processors? architecture supports four execution threads per core, with separate register sets per thread. ?This enables the use of a simple, efficient in-order pipeline while retaining many of the latency-hiding benefits of more complex out-of-order pipelines when running highly parallel applications,? Intel said.

“We have a lot of people trying to position different processing architectures. You’ve got Nvidia trying to position the GPU with CUDA (Compute Unified Device Architecture), which is basically a programming structure to use it as an accelerator, as a general purpose CPU (central processing unit) or whatever,” Jim McGregor, an analyst at In-Stat, said.

“Basically what Intel is doing is trying to leverage the x86 architecture in a way that it has not been leveraged before, as really kind of a head-end core to a high-end processing element that can be used as a server accelerator, [and] as a graphics accelerator.”

Peddie says some of the industry will just see Larabee as a graphics processing unit (GPU), but he believes the more accurate term for the chip I graphics capable processing unit (GCPU).

“Larrabee is not a GPU in the sense an ATI, Nvidia or S3 chip is a GPU; it is a gang of x86 cores that can do processing, so it is a GCPU — graphics capable processing unit, as are ATI, Nvidia and S3’s chips,” Peddie posted on his firm’s blog.

Intel has already said that Larabee will initially target the personal computer graphics market ? which means gaming machines. These early implementations will focus on discrete graphics applications, supports DirectX and OpenGL, and run existing games and programs.

Intel does however see Larabee as more than just a high-end gaming chip, and believes that the chip, with its native C/C++ programming model, will also have a place in a range of parallel applications, including scientific and engineering software.

?The chip will be optimal for any application that can use a SIMD (Single Instruction, Multiple Data) processor - 3D graphics, scientific computing, etc.,” Peddie noted.

The standalone chip will go head-to-head against offerings from Nvidia and AMD’s ATI.

“It will be easier for people to program applications for Larrabee. That’s the value of Larrabee. They’re going after the ultra high-end; stuff that’s going to be doing scientific simulations and stuff like that. They’re really cranking the power up to see what they can do, and then they’ll scale it back to see how it can fit into PCs,” In-Stat’s McGregor said.

Larabee is not aimed for the “heart of Nvidia’s and ATI’s market at this point in time. But obviously if they’re successful and they create a new computing/programming model around this type of architecture, it does go after that,” he explained.
Fonte: http://www.chutneytech.com/intel-release-technical-information-on-larabee/

Intel Larabee details surface

Early details on Intel’s Larabee GPU, the nVidia killer, were unveiled today by Intel. The company is presenting a paper in SIGGRAPH on August 12th. The paper details a new approach to the software rendering 3-D pipeline, a many-core (many processor engines in a product) programming model and performance analysis for several applications.
The first product based on Larrabee will target the personal computer graphics market and is expected in 2009 or 2010. Larrabee will be the industry’s first many-core x86 Intel architecture, meaning it will be based on an array of many processors. The individual processors are similar to the Intel processors that power the Internet and the laptops, PCs and servers that access and network to it.
Initial product implementations of the Larrabee architecture will target discrete graphics applications, support DirectX and OpenGL, run existing games and programs. The tools will uses a native C/C++ programming model.
Here are some more details on the GPU
  • The Larrabee architecture has a pipeline derived from the dual-issue Intel Pentium® processor, which uses a short execution pipeline with a fully coherent cache structure. The Larrabee architecture provides significant modern enhancements such as a wide vector processing unit (VPU), multi-threading, 64-bit extensions and sophisticated pre-fetching. This will enable a massive increase in available computational power combined with the familiarity and ease of programming of the Intel architecture.
  • Larrabee also includes a select few fixed function logic blocks to support graphics and other applications. These units are carefully chosen to balance strong performance per watt, yet contribute to the flexibility and programmability of the architecture.
  • A coherent on-die 2nd level cache allows efficient inter-processor communication and high-bandwidth local data to be access by CPU cores, making the writing of software programs simpler.
  • The Larrabee native programming model supports a variety of highly parallel applications, including those that use irregular data structures. This enables development of graphics APIs, rapid innovation of new graphics algorithms, and true general purpose computation on the graphics processor with established PC software development tools.
  • Larrabee features task scheduling which is performed entirely with software, rather than in fixed function logic. Therefore rendering pipelines and other complex software systems can adjust their resource scheduling based each workload’s unique computing demand.
  • The Larrabee architecture supports four execution threads per core with separate register sets per thread. This allows the use of a simple efficient in-order pipeline, but retains many of the latency-hiding benefits of more complex out-of-order pipelines when running highly parallel applications.
  • The Larrabee architecture uses a 1024 bits-wide, bi-directional ring network (i.e., 512 bits in each direction) to allow agents to communicate with each other in low latency manner resulting in super fast communication between cores.
  • The Larrabee architecture fully supports IEEE standards for single and double precision floating-point arithmetic. Support for these standards is a pre-requisite for many types of tasks including financial applications.
Fonte: http://www.imediapress.com/rp/2008/08/04/intel-larabee-details-surface/


Larrabee competes with Geforce 11, R900

Intel asked Fudzilla why don't we really take and like the fact that Intel's Larrabee might dominate the graphic world as other press do, and we answered comparing of Larrabee with Geforce 11 and R900. These products are very far away from silicon and production and therefore we have their younger brother to focus, before the 2010 chips arrive.
Yours truly said that Larrabee is as important for Fudzilla as Geforce 11 and R900. For graphic world domination you need a product, and Geforce 11, R900 and Larrabee are all in its early design stage. It takes around two years to make GPU and even more if you are doing that for the first time.

We can probably get some basic details about chips that are coming in 2010 like a manufacturing process, DirectX 1x support but not too many in depth details, as its still way to early.

Both Nvidia and ATI are working on their future products but for Nvidia and ATI they have to launch 2009 generation before they go to 2010 Larrabee competitors.

Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9210&Itemid=1
Werick Aires
Werick Aires Veterano Registrado
1.9K Mensagens 20 Curtidas
#3 Por Werick Aires
03/09/2008 - 10:24
tem muitas coisas que podem mudar, isso é apenas uma previsão do futuro! não podermos afirmar ao certo de mesmo a AMD vai falir, só citando um exemplo, e que a intel pode perder o mercado de CPU's para um GPU da nvidia! podem muito bem surgirem novos meios e tecnologias mais apuradas, sempre tem uma pessoa que sempre na hora tem uma idéia brilhante e inverte a situação, só o tempo dirá o que vai acontecer, quando estiver tudo na prática!
Intel i5 4690K - MSI Z97 Gaming 9 ACK - Galax GTX 970 Exoc - 16 GB Corsair Vengeance Pro 2400 - Corsair Hydro H110 - Patriot Blaze 240 GB - Patriot Blast 240 GB - HD 2.0 TB/ 500 GB - XFX Pro 850 Black Full Modular - Corsair Graphite 780t
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#4 Por apterix
09/09/2008 - 10:12

O Larrabee estará no próximo XBOX ?

Segundo os nossos colegas do The Inquirer, a Intel supostamente está procurando uma nova para o seu futuro Larrabee, um processador muito especial que, entre outras coisas, vai chegar para competir com as atuais GPUs dedicadas da AMD e NVIDIA.

E para garantir o seu sucesso, a Intel estaria planejando fazer uma dobradinha com a Microsoft, que convenientemente passaria a utilizar este processador nos futuros Xbox 720, os consoles que substituirão os atuais Xbox 360 e que supostamente poderão ser encontrados em 2010.

Isto permitiria a Intel ganhar o espaço da AMD, o atual parceiro da Microsoft na questão da GPU para o seu console, mas isso também lhe daria uma vantagem competitiva muito importante já que o Larrabee ainda precisa mostrar do que ele é capaz, pois não existem provas evidentes de que tudo o que a Intel está prometendo vai ser cumprido. A NVIDIA, por sua vez, já repetiu inúmeras vezes que o design da Intel para esta CPU/GPU na realidade é muito obsoleta.

Texto ForumPCS
Fonte: TheInquirer


Sem dúvida alguma se eles abocanharem o mercado dos consoles, pode ocorrer de se fortalecerem nos PCs, contudo ainda não acredito que a Microsoft cederá tão fácil.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#5 Por apterix
25/09/2008 - 11:00

Computação visual III: afinal, o Larrabee


Continuemos nossa jornada em busca do entendimento do que exatamente virá a ser o Larrabee. Sempre lembrando que, como deixei claro na coluna anterior, a jornada atravessa o escorregadio terreno da computação gráfica, área do conhecimento que não domino e sobre a qual, como alguns comentários acrescentados às demais colunas deixam claro, o conhecimento de boa parte dos leitores deste Fórum é significativamente maior que o meu. Mas como os especialistas já se manifestaram e nenhum deles (provavelmente por educação) escarneceu dos meus pitacos sobre o tema, muno-me de coragem suficiente para seguir adiante sempre tendo em mente, porém, que ao sapateiro não convém ir além das sandálias.

Como vimos (de forma muito simplificada) há basicamente duas técnicas de renderização de imagens (geração da imagem final a partir de um modelo matemático que fornece as coordenadas dos vértices de suas “primitivas”): rasterização, a mais simples, que consiste basicamente em preencher cada primitiva (polígono elementar no qual a imagem é dividida) com pixels de mesma cor, e traçado de raios (“ray tracing”), mais complexo, que gera a imagem baseada no cálculo do trajeto de cada raio luminoso que incide sobre ela, considerando inclusive seus reflexos nas superfícies representadas na própria imagem. E vimos que este segundo método, embora resulte em imagens muito mais realistas, é pouco usado atualmente devido à brutal capacidade de processamento que exige. Tanto assim que o leitor falconz3, que honrou minha coluna anterior com um comentário em resposta a um comentário postado por marceloxray, afirma literalmente que “o futuro é a utilização de Síntese de Imagem por simulação, como o Ray Tracing”.

Pois bem: tanto quanto me foi dado perceber, com a arquitetura Larrabee a Intel tenta antecipar este futuro.

Para começar, tentarei transmitir para vocês a que conclusão cheguei, depois de muito fuçar a Internet, sobre a razão da aparentemente paradoxal dificuldade do Dr. Larry Seiler, responsável pelo projeto Larrabee, em responder se o bicho é uma UCP ou uma UGP. E a razão é simples: Larrabee é uma arquitetura, ou seja, um projeto ainda em fase conceitual que englobará futuramente diversos produtos. Alguns deles serão, realmente, UGPs (Unidades Gráficas de Processamento). Mas a flexibilidade da arquitetura é tão grande, como grande será a capacidade de processamento que ela conferirá aos produtos nela baseados que, além daqueles otimizados para processamento gráfico (que, efetivamente, neste caso serão GPUs), haverá outros membros da família Larrabee destinados a finalidades específicas, não necessariamente ligadas ao processamento gráfico – como os aplicativos científicos que envolvem muitos cálculos. E uma das razões disso é a flexibilidade oferecida pela presença de núcleos funcionalmente idênticos a processadores x86 em paralelo com os “módulos de funções fixas” (que logo veremos quais são). Portanto, tinha lá Mr. Seiler suas razões para dar uma resposta tão escorregadia e difícil de entender: chips baseados na arquitetura Larrabee poderão, sim ser UGPs. Mas também poderão não ser.

Então voltamos ao princípio: que diabo serão?

Bem, tanto quanto me foi dado entender, todos os produtos Larrabee serão do tipo “many-core”, ou seja, terão dez núcleos ou mais (uma das ilustrações da palestra de Seiler mostra um gráfico no qual o eixo correspondente ao “número de núcleos” vai até quqrenta e oito). Cada núcleo obedecerá ao esquema mostrado na Figura 1 (obtida da palestra de Seiler cujo original foi distribuído aos participantes do IDF).

Imagem 640) {this.width=640}" style="" onclick="javascript:window.open('http://www.forumpcs.com.br/galeria/albums/userpics/35074/normal_FPC20080915_1.jpg')" border="0">
clique aqui para ver em alta resolução
Figura 1: um núcleo do Larrabee

Examinando a Figura 1 com algum critério se percebe que o núcleo de um “chip” Larrabee não é essencialmente diferente do núcleo de qualquer processador x86 da Intel (é por isso que Mr. Seiler afirma tão categoricamente que “o Larrabee não é uma UGP”). Ele terá caches de primeiro nível (L1) independentes para dados e instruções (Dcache e Icache, na figura) conectados diretamente a um cache de segundo nível de 256 KB de rápido acesso (que, como logo veremos, pode ser compartilhado com os demais núcleos), unidades de processamento vetorial e escalar independentes, cada uma com seu próprio conjunto de registradores (os da unidade vetorial de cálculo com decimais terão 512 bits de largura), tudo isto ligado por um lado ao decodificador de seu próprio conjunto de instruções (algumas, mas nem todas, otimizadas para processamento gráfico) e por outro a um misterioso “anel” (“ring”) sobre o qual já falaremos. De fato, outra ilustração da mesma palestra afirma que “cada núcleo Larrabee é um processador Intel completo”, capaz de multitarefa preemptiva (a unidade vetorial é capaz de processar até dezesseis operações de 32 bits por ciclo), uso de memória virtual e caches totalmente coerentes em todos os níveis. A diferença mais substancial é que nenhum dos núcleos será capaz de efetuar o chamado “processamento fora de ordem” (“out-of-order execution”). Um ponto importante: cada núcleo será capaz de processar até quatro “threads” simultâneas e, sendo um processador x86, aceitará qualquer rotina compatível com seu conjunto de instruções e não apenas aquelas dedicadas ao processamento gráfico como as UGPs. E permitirá ao desenvolvedor que tenha acesso ao código fonte das rotinas (ou a algum ambiente de programação integrado específico para o Larrabee), alterá-las à vontade ou programar outras inteiramente diferentes, algo impossível em uma UGP dedicada.

Agora que temos idéia de como será cada núcleo do Larrabee, vejamos na Figura 2 como eles se interligam e o que mais o chip oferecerá. E para isso nada melhor que a própria ilustração da Intel apresentada por Larry Seiler.

Imagem 640) {this.width=640}" style="" onclick="javascript:window.open('http://www.forumpcs.com.br/galeria/albums/userpics/35074/normal_FPC20080915_2.jpg')" border="0">
clique aqui para ver em alta resolução
Figura 2: Diagrama de bloco de um “chip” Larrabee

Os núcleos (são mostrados apenas quatro deles) aparecem na parte de cima e na de baixo, com seus dois caches primários (de instruções e dados, I$ e D$). Todos estão ligados a um grande cache de segundo nível (L2 Cache), compartilhado entre eles (como cada núcleo dispõe de um cache L2 de 256 KB, em um Larrabee de, digamos, dez núcleos a capacidade total de cache L2 será de 2,5 GB). Este cache disporá de mecanismos de controle que permitem que um determinado núcleo “trave” trechos de cache para seu uso exclusivo quando estiver executando instruções sobre múltiplos dados (SIMD) impedindo que outros núcleos “sujem” o cache.

Mas o que o Larrabee tem mesmo de especial é o que aparece além dos núcleos e do cache: controladores de memória (eliminando barramento frontal e o gargalo que ele representa) e os módulos de funções fixas, tudo isto interconectado por um barramento extremamente rápido, o “ring” (na figura, representado pelas setas brancas).

Pois é justamente a presença destes módulos de funções fixas que levou Mr. Seiler a afirmar que “o Larrabee não é uma UCP”.

Estes módulos de funções fixas são, justamente, o que o nome indica: módulos de processamento “especializados”, otimizados e dedicados a cumprir uma única função (e é este o ponto de contato mais íntimo entre o Larrabee e as UGPs clássicas, que nada mais são que poderosíssimas unidades de processamento dedicadas exclusivamente às funções gráficas).

Na Figura 2, três dos módulos de funções fixas têm suas funções assinaladas (o quarto consta apenas como “Fixed Function”, dando a entender que, dependendo do modelo do “chip” – que, como vimos, pode ou não ser uma UGP – poderá executar qualquer função fixa para a qual for concebido). Um deles é responsável exclusivamente pela lógica das texturas de recobrimento das diversas superfícies que compõem a imagem (“Texture Logic”). Outros dois se dedicam exclusivamente a controlar o intercâmbio de dados com o sistema e com o vídeo propriamente dito (o que permite que as trocas de informações e comandos entre o Larrabee e o sistema não interfiram com a exibição das imagens na tela). Notem que estes módulos se dedicam a funções bastante específicas (a Intel justifica a inclusão da lógica das texturas entre estas funções fixas porque, dadas certas peculiaridades da tarefa, ela pode ser executada de doze a quarenta vezes mais rapidamente por um núcleo dedicado que por processadores genéricos; veja exemplo da aplicação de textura sobre um sólido formado por primitivas na Figura 3).

Imagem 640) {this.width=640}" style="" onclick="javascript:window.open('http://www.forumpcs.com.br/galeria/albums/userpics/35074/normal_FPC20080915_3.jpg')" border="0">
clique aqui para ver em alta resolução
Figura 3: aplicação de textura

Como foi dito antes, o Larrabee não se destina exclusivamente a processamento gráfico. Mas tem tudo o que é preciso para esta tarefa. O fato de conter múltiplos núcleos, cada um deles funcionando como um microprocessador independente e não “especializado”, permite otimizar o uso do dispositivo, distribuindo tarefas entre os núcleos na medida que são solicitadas. Como, conforme enfatizado na palestra de Seiler, não existe “demanda típica de trabalho” no processamento gráfico (o que é evidenciado na Figura 4, exibida na palestra, que mostra como diferentes aplicativos tridimensionais – no caso, jogos – distribuem de forma totalmente diferente sua solicitação de carga de processamento sobre a UGP), a possibilidade de usar o mesmo núcleo em diferentes momentos para tarefas distintas aumenta brutalmente a capacidade de atendimento de cargas cuja solicitação varia com o contexto. O que traz ainda outra vantagem considerável: como os núcleos não têm limitações quanto ao tipo de função que podem executar, pouco importa para um chip Larrabee se a interface de programação gráfica usada foi a OpenGL ou DirectX: sendo a diferença entre ambas apenas a forma pela qual as funções foram implementadas e podendo os núcleos do Larrabee lidar com diferentes implementações, elas serão aceitas e executadas sem dificuldades.

Imagem 640) {this.width=640}" style="" onclick="javascript:window.open('http://www.forumpcs.com.br/galeria/albums/userpics/35074/normal_FPC20080915_4.jpg')" border="0">
clique aqui para ver em alta resolução
Figura 4: diferentes demandas sobre a UGP

Agora que sabemos alguma coisa sobre o Larrabee, vamos juntar a estes os (poucos) conhecimentos que temos sobre renderização de imagens.

No começo, mas bem no começo mesmo, as imagens eram renderizadas pela própria UCP. O que não era de admirar já que, naqueles dias, o máximo que se podia esperar era o padrão gráfico CGA (Color Graphics Adapter) com suas telas de, no máximo, 320 colunas por 200 linhas e suas vibrantes dezesseis cores (não, milhões não, dezesseis mesmo). A UCP recebia os dados do aplicativo, efetuava os cálculos de transformadas e iluminação, gerava a rede de primitivas, rasterizava a imagem preenchendo as primitivas com pontos de uma das 16 cores disponíveis, processava os pixels e gerava o quadro (“frame”), exibindo-o na tela. Era simples assim.

Depois, apareceram as interfaces gráficas e tanto a quantidade de pontos na tela (resolução) quanto o de cores atingiram números inimagináveis. Surgiram então os processadores gráficos dedicados, ou UGPs, especializados, voltados especialmente para a renderização rápida de imagens altamente definidas. E o aumento das exigências da computação visual por imagens cada vez mais realistas fez com que desempenho destes processadores especializados sofressem incremento proporcional. Segundo Seiler, a partir de 2001 este desempenho (medido em FLOPS, ou operações com números fracionários por segundo) tem crescido exponencialmente com taxa de 1,7 vezes ao ano. E o mundo das “placas aceleradoras gráficas” (controladores de vídeo com unidade de processamento gráfico dedicada) primeiro expandiu-se, com grande quantidade de marcas e modelos, depois encolheu e reduziu-se a um número mínimo de participantes não somente pelo notável grau de especialização exigido como também pela crescente complexidade de projeto e custos cada vez maiores.

O problema é que a especialização, se bem que acelera o desempenho, tem lá seus problemas. E o maior deles é a perda de flexibilidade. Um circuito “dedicado” faz cada vez melhor e mais depressa seja lá o que foi concebido para fazer, mas faz apenas aquilo. E só quando solicitado.

E se tem uma coisa que o Larrabee esbanja, com suas quatro “threads” por núcleo, é flexibilidade. Sem falar no paralelismo: afinal, são mais de dez núcleos cada um capaz de executar quatro “threads” simultâneas. Portanto, se ele não foi “feito por encomenda” para processamento gráfico (a Intel relutaria bastante em afirmar que sim, porém também não afirma peremptoriamente que não), tem todo o jeito de ter sido.

Mas ainda assim Mr. Seiler tem razão: o Larrabee não é uma UGP. E, na palestra, citou três razões para justificar esta afirmativa.

A primeira é que cada núcleo do Larrabee é um processador Intel completo, capaz de multitarefa preemptiva, acesso à memória virtual e a uma hierarquia de cache coerente.

A segunda é que a intercomunicação entre componentes (o “ring”) é um barramento de baixíssima latência e alta taxa de transferência unindo caches de primeiro e segundo níveis e sincronização rápida entre núcleos e caches.

A terceira é que, não tendo componentes “dedicados” (com exceção dos poucos módulos de função fixa), a maioria dos gargalos serão eliminados mediante a redistribuição de tarefas entre núcleos, o que resultará em uma funcionalidade mais flexível e equilibrada.

Mas o que tem tudo isto a ver com renderização de imagens?

Tudo. Lembra da coluna anterior? Da explicação sobre as dificuldades de gerar imagens renderizadas por traçado de raios devido à grande capacidade de processamento que demanda?

Pois bem: segundo os especialistas, o cálculo da trajetória de raios luminosos não difusos originados de reflexos nas superfícies representadas nas imagens, especialmente aqueles que são refletidos sucessivamente por diferentes superfícies (“multibounce specular reflections”), assim como o cálculo da trajetória de raios refratados em superfícies transparentes, apresentam enorme demanda de capacidade de processamento. Por outro lado seu alto grau de coerência facilita bastante seu cálculo por sistemas que adotam o processamento paralelo, especialmente de instruções aplicadas simultaneamente a dados múltiplos (processamento SIMD, de “Single Instruction, Multiple Data”). Exatamente como o adotado pelos núcleos múltiplos da arquitetura Larrabee (ver Figura 2).

Portanto, até pode ser que o Larrabee não seja uma UGP e nem sequer tenha sido concebido especialmente para processamento gráfico baseado no traçado de raios (“ray tracing”) e que tenha muitas outras aplicações. Mas que parece ter sido feito sob medida para este fim, lá isto parece.

E o fato do Larrabee ter sido discutido exclusivamente nas seções técnicas do IDF referentes à computação visual é um bom indicador que logo teremos uma UGP Larrabee.

Incidentalmente: em todos os IDFs de que participei, e foram muitos, nunca vi a Intel fazer tanto barulho em torno de um dispositivo que ainda não está “no silício” (ou seja, do qual não existe sequer um protótipo fabricado). O Larrabee foi a exceção que confirma a regra e o fato não deixou de ser mencionado pela própria Intel.

Há quem diga que isto se deve a uma estratégia de mercado. Que todo este estardalhaço em torno da CVC (Computação Visual Conectada) é a forma que a Intel encontrou para, digamos, “assustar” a concorrência informando não somente que o tema da computação gráfica não escapa da sua área de interesse como também que está começando a trabalhar nele com afinco.

E por “concorrência” entenda-se não apenas a AMD, que desde a aquisição da ATI, há dois anos, vem se dedicando a desenvolver um processador híbrido, incorporando as funções de processamento de dados e de gráficos (programa “Fusion”, anunciado em outubro de 2006; veja as últimas novidades neste artigo de Joel Hruska na “ars technica”), como também a NVIDIA, com suas formidáveis placas gráficas de alto desempenho.

Eu não sei não, mas pelo que eu vi no IDF, se tudo aquilo é para assustar a concorrência eu, se fosse concorrente, estaria um bocado assustado...


Fonte: http://www.forumpcs.com.br/coluna.php?b=244608
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#6 Por apterix
06/10/2008 - 22:35

[RUMOR] CGPU Intel LARRABEE
Rumor Bomba:Larrabee é 5 vezes mais rápido que NVIDIA / AMD
Sim, o título foi esse mesmo, uma notícia circulou pela internet rapidamente e foi removida do site onde apareceu, dizendo que o Larrabee é 5 vezes mais rápido que a atual tecnologia da Nvidia e AMD. Esta nova CGPU, consistirá de 64 pequenos processadores x86 totalizando 2 bilhões de transistores, também teremos versões com 32 processadores , tais CGPUs serão clocadas a 2GHz, sendo capaz de executar para cada núcleo 16 operações de vetor por ciclo, totalizando 1024 ao todo, para efeito de comparação, a HD4870 permite executar 800 por ciclo e a GTX280 consegue 240, claro, presumindo que isso possa ser comparado desta forma :


Intel Larrabee: 1,024 vectors at 2GHz
NVIDIA Geforce GTX 280: 240 vectors at 1.6GHz
AMD Radeon HD 4870: 800 vectors at 725MHz.


Larrabee seria de 4 a 5 vezes mais poderoso que qualquer coisa disponível em 2008.



Imagem

Imagem

Imagem

Imagem

XtremeSystems


Fonte: http://www.framebuffer.com.br/
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#7 Por apterix
28/10/2008 - 01:36

O primeiro processador Larrabee da Intel terá 48 núcleos ?


Segundo os rumores que circularam pelos corredores do IDF, o Larrabee terá 48 núcleos.

As especulações referentes ao número de núcleos são parecidas com os lances do eBay. Já falaram sobre 12 no mês de fevereiro e algumas pessoas até mesmo se aventuraram a falar de 80. Atualmente, os nossos colegas do Fudzilla afirmaram que o número mágico é 48.

Vale destacar que o Larrabee será integrado pelos núcleos P54C e ele deverá estar disponível no ano que vem ou até mesmo em 2010.

O limite de 48 núcleos vem do constrangimento gerado pelo TDP e devido ao calor dissipado. Além disso, a Intel tem a difícil tarefa de garantir que todos os 48 núcleos serão utilizados, o que não vai ser uma tarefa fácil.

Imagem

Fonte: Presence-PC


Fonte: http://www.forumpcs.com.br/noticia.php?b=246235

Ainda é cedo para conclusões, mas se por um lado o Larabee é baseado no x86 e isso facilita a programação e retira as limitações que as atuais GPUs tem, por outro tem o mesmo problema de qualquer cpu com dois ou mais núcleos: aproveitar todos eles com eficiência.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#8 Por apterix
08/11/2008 - 17:20

Larrabee para desktop em 2010


Segundo os últimos rumores, o Larrabee para estações de trabalho deverá ser lançado em 2009, mas a versão para computadores desktop deverá chegar em 2010.

Muitos afirmaram que a Intel pretendia lançar o seu processador gráfico na segunda metade de 2009, mas agora parece que somente uma versão para estações de trabalho será vista no próximo ano.

Este mercado é mais lucrativo do que o mercado de computadores desktop ou de notebooks, mas, no entanto, ele exige drivers impecáveis e uma estabilidade a toda prova. Portanto, a Intel vai ter de trabalhar duro, mas enquanto isso a companhia ainda sofre com drivers pouco gloriosos para os seus IGPs.

Fonte: Presence-PC
Fonte: http://www.forumpcs.com.br/noticia.php?b=246790


Larrabee might not have a Windows XP driver
Just Vista and Windows 7
Our sources have told us that Larrabee might not have Windows XP drivers and that the software team will only focus on Vista and Windows 7.

Since the first products will go after the professional market it's highly likely that we will see a Linux driver as some of the professional guys use Linux; but from what we know there might not be a Windows XP driver.

Intel simply wants to move away from this operating system and invest its development time in the future, which is obviously Windows 7. The Vista driver is reality, as this operating system is gaining market share as we speak, as most of the systems do come with Vista and you almost don’t have a choice to go back to Windows XP, especially when you buy your PC in a local retail store.

Desktop / gaming Larrabee will probably come much later after workstation, simply as workstation driver is complex and hard but at the same time you only need to optimize OpenGL, as this is what most of the workstation software uses, while in gaming DirectX plays a much more important role.

Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10349&Itemid=1



Larrabee comes in 2H 2009

Workstation

The first Larrabee will come as a workstation product, positioned in the high-end market and we heard that this should happen in the second half of 2009. Intel wants to attack the most profitable market, which is obviously Nvidia's cash cow. Today Nvidia holds around 85 per cent of this market and both ATI and Intel want a piece of this action in 2009.


Workstation drivers are a complex thing, but based on OpenGL (as this is what most of the workstation applications use) you still need to optimize this driver to perfection to get the desired results from it and to hope to gain performance leadership in this market.

Workstation market is very attractive, as the margins on these products are as high as sixty percent, while when you sell a high-end graphics card you can only hope to get a fifteen percent margin. This gives you a clear idea why companies want to be the part of this lucrative market.

The desktop, gaming Larrabee comes later, in 2010.

Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10346&Itemid=1


O XP morreu de vez... as maiores desenvolvedoras de drivers (principalmente placas de vídeo) e equipamentos já tomaram o windows vista como base para qualquer lançamento e manutenção.
O XP pode até ser melhor em em diversos quesitos, entretanto vai perder a briga porque todas as empresas nos empurram até o Vista (pelo menos na indústria de game, mídia etc).

E até agora não vi nada do Larabee voltado para Linux, o que é um problema já que os maiores workstation do mundo, seja em potencial de processamento ou em número, utilizam sistemas baseados em unix (linux, freebsd etc).
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
quemsou_naodigo
quemsou_naod... Cyber Highlander Registrado
28.8K Mensagens 1.8K Curtidas
#9 Por quemsou_naod...
08/11/2008 - 18:07
apterix, pegando carona no seu tópico...

Existe o GPGPU, que permite que alguns processos que seriam processados pelo CPU passem a ser processados pela GPU, certo?

Existe o CuDA da nVidia, que é uma espécie de aplicativo que aperfeiçoa o uso de GPGPU, seja em aplicativos gráficos, ou não, certo?

Então, para aproveitar este conceito de GPGPU, surge o Larrabee, que não é nem um CPU e nem um GPU. É um chip muito parecido com um CPU Intel atual, que funciona de forma parecida com uma GPU atual (utilizando GPGPU e CuDA), certo?

Quer dizer então que o Larrabee, embora pareça ter sido feito exclusivamente para processamento gráfico, não é exclusivamente para isso. É bastante flexível, podendo processar diversos tipos de processos. Nesse caso, o CPU serviria apenas para interligar os componentes, o trabalho pesado seria feito por esse treco (CPU ou GPU?) chamado Larrabee, certo?

Será que estamos perto do fim dos CPUs?

Desculpe pela quantidade de dúvidas...
Leiam: Guia de Utilização (Novo Fórum) e Regras de Conduta.
---------------------------------------------
LinuxUser #468957
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#11 Por apterix
08/11/2008 - 19:45

Existe o GPGPU, que permite que alguns processos que seriam processados pelo CPU passem a ser processados pela GPU, certo?


Isso.


Existe o CuDA da nVidia, que é uma espécie de aplicativo que aperfeiçoa o uso de GPGPU, seja em aplicativos gráficos, ou não, certo?


Exato, ele adequa algumas restrições da GPU para rodar diversos aplicativos e trabalha como uma interface entre algumas tecnologias, como PhysX e GPU.


Então, para aproveitar este conceito de GPGPU, surge o Larrabee, que não é nem um CPU e nem um GPU. É um chip muito parecido com um CPU Intel atual, que funciona de forma parecida com uma GPU atual (utilizando GPGPU e CuDA), certo?


Nem GPU nem CPU, como você disse. Mas até agora tem sido mais próximo de uma CPU porque usa instruções x86, é baseado em um processador (intel, no caso) e sofre do mesmo problemas das cpus atuais e computação paralela.

Até agora parece que a Intel terá sua própria interface "gpgpu", mas não pode ser chamada de gpgpu, como o CUDA, já que ele não é uma GPU e tem acesso as instruções x86.


Quer dizer então que o Larrabee, embora pareça ter sido feito exclusivamente para processamento gráfico, não é exclusivamente para isso. É bastante flexível, podendo processar diversos tipos de processos. Nesse caso, o CPU serviria apenas para interligar os componentes, o trabalho pesado seria feito por esse treco (CPU ou GPU?) chamado Larrabee, certo?


Exatamente. Embora possa ser usado como processador gráfico, a carta da intel é que ele possa ser usado para qualquer objetivo.
Esta é a parte boa (para nós), contudo ruim para ela. Afinal, a mesma placa para jogos poderia ser usada em otimização de processos em grandes empresas, e obviamente isso seria perda de dinheiro para ela.

Então, apesar da flexibilidade, não espere que nada seja dado de graça. Até o momento teremos duas versões: workstation e desktop, por motivos óbvios.
Entretanto com a arquitetura será a mesma, e possívelmente o número de núcleos também, onde a Intel cortará o Larabee para vendê-lo aos desktops? (leia-se a solução Larabee mais barata)


Será que estamos perto do fim dos CPUs?


O fim pode demorar, afinal a esmagadora maioria dos computadores nem possuem uma placa dedicada para processamento gráfico, entretanto os equipamentos TOPs tendem cada vez mais a usar mais GPU do que CPU:
- Apple está introduzindo em seu sistema a utilização do gpgpu, em especial com as placas nvidia
- Windows Vista e Seven, com dx11, se utilização do gpgpu
- Qualquer aplicativo com suporte a cuda, e boa carga de cálculo em ponto flutuante, poderá maximizar o desempenho em grandes proporções (já existem dezenas)
- cálculos de física são superiores em gpu, como é o caso do Physx, pois tratam quase que unicamente de cálculo em pf para o funcionamento do seu algoritmo
- o processamento paralelo em gpu é nativo desde que ele existe, faz parte de sua concepção, portanto todos os aplicativos criados para ele já trabalham efetivamente de forma paralela (o exemplo mais simples são os jogos). Já o cpu apesar de ser "multi-tarefa" e apresentar diversas tecnologias que tentam torna-lo eficiente em computação paralela (pipes, mais núcleos etc), seu processamento ainda é tratado de forma linear e exige sempre que o software utilize seus recursos adequadamente.


Se não me engano a Intel ja fez alguma demonstração de um dispositivo de ponto flutuante por volta de 2002/2003, sera remake ou agora é pra valer?


Desconheço esse dispositivo, entretanto o Larabee tem que sair, é uma questão de mercado: A intel não pretende começar a perder mercado onde se exige alto nível de processamento. Como ela não tem uma GPU boa e não quer ver as vendas de suas CPUs retraírem nesse mercado (que é o que mais da dinheiro a ela), nada mais óbvio que tentar dominar esse mercado com outra solução.

Ela tentou no início fazer a nVidia desistir do CUDA, mas a verdinha brigou e manteve. Então a Intel deverá bater de frente com outra solução.

Nesse cenário a AMD vem falar do OpenCL (open computing language), e muitos acham que o OpenCL será o concorrente do CUDA.

Vou esclarecer alguns pontos:
1) A AMD pretende adotar o OpenCL, assim como todo o mercado, mas atualmente ela não ajuda em nada no seu desenvolvimento.
2) Diversas empresas discutem e desenvolvem o novo padrão, entre elas: nVidia, Apple, Intel, IBM etc.
3) O OpenCL deverá ser um padrão do mercado, mas não concorre com o CUDA. O OpenCL também tira vantagens do alto nível de processamento assim como o CUDA das GPU, mas CUDA é uma interface que permite além de vantagens utilizando-se uma GPU, trabalhar as restrições que ela tem, oriundas do seu objetivo inicial como GPU e maximizar as possibilidades/compatibilidades de cálculo.
O verdadeiro concorrente do OpenCL é o DX11, assim como o OpenGL é para o DX11.
4) A vantagem mais clara do OpenCL é operar em qualquer sistema operacional, enquanto que o DX11 fica restrito ao Windows e o OpenGL, apesar do mesmo objetivo, além de não ter sido tão bom quanto o DX, não aproveita a GPU como o OpenCL/GPGPU pretende, sendo usado apenas para otimização na renderização de imagens.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
quemsou_naodigo
quemsou_naod... Cyber Highlander Registrado
28.8K Mensagens 1.8K Curtidas
#12 Por quemsou_naod...
08/11/2008 - 19:59
Hm... Então, em poucas palavras, o Larrabee seria uma fusão das utilidades de um CPU e um GPU em um único chip. Mas não um GPU comum, um GPU capaz de realizar tarefas que originalmente seriam realizadas pelo CPU, através do conceito de GPGPU. Ou seja, seria uma GPU aproveitando-se da tecnologia GPGPU e um CPU em um único chip...
Correto?

Se for realmente assim, a Intel ganha mais uma vantagem sobre os concorrentes... Enquanto ela utiliza somente um chip, o CuDA da nVidia usa um CPU e uma GPU (em placas de vídeo extremamente consumistas) separadamente, o que reflete em um consumo elétrico e aquecimento mais elevados...
Leiam: Guia de Utilização (Novo Fórum) e Regras de Conduta.
---------------------------------------------
LinuxUser #468957
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#13 Por apterix
08/11/2008 - 20:14
Quase. A carta da intel seria que tudo poderá utilizar o Larabee, principalmente por ter as instruções x86 e não precisar de uma linguagem especial, como o CUDA necessita, mesmo usando C++.

Lembro ainda que o CUDA tem como objetivo não só GPGPU, como aprimorar a relação CPU e GPU.

Mas algumas coisas não ficam claras no Larabee:
- compatibilidade com sistemas operacionais baseados em unix
- o que diferenciará o produto para desktop e workstation (o que será cortado)
- o preço, já que estamos falando de vários cpus em um único hardware
- sua plataforma, já que não utilizará directx, cuda, opencl ou qualquer outra coisa
- se ele será tão flexível, ele concorrerá diretamente com os próprios CPUs da Intel, então o que ela fará para que isso não ocorra? Afinal, com o que sabemos hoje, o Larabee pode substituir um processador sem problema.
Para não permitir isso, o que o Larabee perderá?
- o que farão as softhouses (principalmente a indústria de games) quando tivermos o Larabee, com alto nível de processamento, e sem compatibilidade com directx?

O erro está aqui:

Enquanto ela utiliza somente um chip, o CuDA da nVidia usa um CPU e uma GPU (em placas de vídeo extremamente consumistas) separadamente, o que reflete em um consumo elétrico e aquecimento mais elevados...


O Larabee será um hardware separado, não substituirá a CPU.

Como eu disse acima e darei mais ênfase agora: A AMD não quer GPGPU porque criaria uma concorrência entre as suas GPU e CPU (não sei dizer se seria significativa, afinal as CPU top não são AMD). O Larabee concorre diretamente com todas as CPU e GPU, incluindo seus produtos nesse sentido. A nVidia não tem CPU, então não tem problemas em investir nisso.

Recentemente uma plataforma de relativo sucesso seria o Nano (gpu nvidia + cpu via), entretanto ela foi desfeita em termos de criação de produto há umas duas semanas. Entretanto a colaboração entre elas continua e é uma das mais interessantes na minha opinião, afinal a GPU nvidia é a gpu com maior eficiência do mercado e os CPUs VIAs possuem um nível processamento fraco, que seria complemetando pela GPU. E a nVidia ganharia um ítem que complementa o GPU: Instruções x86, onde a VIA possui licença para usar.

Se o Larabee realmente for bom no que propõe, e a nVidia quiser brigar com ele, ela fatalmente terá que ser compatível com as intruções x86 e a compra de uma empresa que possua licença será uma boa alternativa.
E nada mais coerente que a nVidia comprar alguma empresa que a possua, como a VIA.

Eu sei que existem algumas regras para a transferência de licença x86 e que não basta simplesmente comprar uma empresa, mas nesse mercado muita coisa é possível.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
quemsou_naodigo
quemsou_naod... Cyber Highlander Registrado
28.8K Mensagens 1.8K Curtidas
#14 Por quemsou_naod...
08/11/2008 - 20:27
apterix disse:

O Larabee será um hardware separado, não substituirá a CPU.

Então o Larabee funcionaria em conjunto com um processador Intel... Mas se o processador já tem as instruções X86, qual seria a utilidade dessas instruções no Larabee?nao_sei.gif

Deixa fazer uma síntese.
AMD/ATi: Sem GPGPU por causa da concorrência que criaria entre seus produtos.

nVidia: Tem o atual CuDA, mas para concorrer com o Larabee pode lançar algo para aproveitar o atual CuDA, mas com a placa de vídeo fazendo o trabalho mais pesado e um processador X86 mais simples, que pode ser um VIA.

Intel: Tem o provável Larabee, que trabalha com um conceito parecido com o GPGPU, não sendo este por ele não ser um GPU (e também não é um CPU de_olho.gif). Mas trabalharia ao lado de um processador Intel com instruções x86. Mas aí eu repito a primeira pergunta desse post...

Ficaria assim então:
AMD(CPU)/ATI(GPU), sem GPGPU vs Intel(CPU)/Intel (Larabee, que não se sabe ao certo o que é) com um conceito parecido com GPGPU vs VIA (CPU)/nVidia (GPU) utilizando GPGPU e o CuDA.

Se isso estiver certo, a nVidia tem vantagem, pois tem o CuDA que aprimora o funcionamento do GPGPU.
Leiam: Guia de Utilização (Novo Fórum) e Regras de Conduta.
---------------------------------------------
LinuxUser #468957
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#15 Por apterix
08/11/2008 - 20:58
Larabee com instruções x86 permite trabalhar sem recorrer ao CPU.
O CUDA tem que recorrer ao GPU para determinados tipos de cálculo.


Mas trabalharia ao lado de um processador Intel com instruções x86. Mas aí eu repito a primeira pergunta desse post...
Sua síntese está quase correta. A princípio o Larabee funciona com qualquer processador: intel, via, amd etc.

E sim, atualmente a nVidia está em vantagem, por que o CUDA existe e funciona.
O Larabee pouco sabemos o que existe dele e existem muitas dúvidas sem resposta, como eu citei.

A AMD tinha o CTM, apenas para propaganda e que acabou sendo abandonado, e hoje fala de OpenCL como se fosse a solução da década, mas o OpenCL vai demorar muito para se tornar realidade. Não tem documentação, é só uma proposta criada pela Apple ainda em dicussão e concorrerá com a plataforma mais poderosa da indústria de games: directx.

O Larabee até poderia usar o CUDA, mas ele não é um GPU, tão pouco um CPU (apesar de parecer mais com este do que com aquele). O que ele é de fato é difícil dizer, afinal nem documentação ele possui.

A AMD poderia usar CUDA, mas não tem interesse em fornecer isso aos seus usuários (leia-se clientes), o que eu acho uma falta de respeito.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
© 1999-2024 Hardware.com.br. Todos os direitos reservados.
Imagem do Modal