E ela controlou o mercado da CPU como quis, freando o aumento do desempenho em cada geração para sempre ganhar mais dinheiro com as diversas atualizações de suas CPUs.
Com a evolução rápida das GPUs e o surgimento do conceito GPGPU a Intel se deparou com alguns problemas:
Como brigar com uma GTX 280 que consegue ter a mesma capacidade de processamento em ponto flutuante que 100 Xeons core2?
Como brigar com o conceito GPGPU que pode trazer uma queda de importância no desempenho final em aplicativos e jogos em relação aos CPUs?
Como concorrer com a plataforma CUDA, da nVidia, que veio para suprir as deficiências que a GPU tem afim de concorrer mais ainda com as CPUs?
No início dessa briga ouvimos falar de placas com chipset Intel sem possibilidade de SLI e até de uma crise de relacionamento entre a Intel (líder das CPUs) e a nVidia (líder das GPUs).
Contudo a Intel deve ter percebido que ela não iria conseguir derrubar a nVidia através de sanções de tecnologias (seja pela relação que a nVidia tem com a VIA ou até mesmo pelo boato da nVidia estar desenvolvendo um x86, enfim) e passou a concorrer diretamente com ela. E dessa concorrência surgiu um nome: Larabee.
O Larabee será uma plataforma baseado no X86 e extendida para o uso como GPU. Teoricamente o que isso significa? Será muito mais fácil programar algum software no Larabee do que em qualquer GPGPU.
Dinheiro e tecnologia a Intel tem para afundar a AMD e a NVIDIA por anos se quiser (e se fizer bem feito).
Mas antes de tudo devemos lembrar que:
- A Intel faz muita propaganda do Larabee, mas mostra muito pouca coisa e quase nada de documentação técnica e oficial
- Não terá compatibilidade com o Directx 11, o que fará com que todos os jogos tenham que ser desenvolvidos para a sua plataforma ou não rodarão nela e isso implica em uma verdadeira briga com o pacote da Microsoft
Será a Intel capaz de brigar com o Directx? Ela diz que sim e mais: Irá revolucionar o conceito multi-tarefa que ocorre hoje com as GPUs.
Tirando a limpo (atualizado constantemente):
1) Larabee é o que? Uma CPU? GPU?
É uma GPU baseado nos x86 (portanto uma CPU) extendida para o conceito GPGPU.
2) O que é o conceito GPGPU?
General Purpose GPU, em outras palavras, traz um propósito mais genérico para as GPUs. Elas não mais atendem só a jogos, agora elas podem carregar seu windows, otimizar seu Photoshop etc com muito mais eficiência que uma CPU.
3) O CUDA, da nVidia, então é um GPGPU?
O GPGPU é definido para qualquer GPU programável e o CUDA é um aperfeiçoamento sobre a programação da GPU, em outras palavaras, supri as falhas ou carências que uma GPU programável tem.
4) Onde está a AMD/ATI em tudo isso?
A ATI também permite a programação de suas GPUs e a semelhança da nVidia tem uma plataforma de desenvolvimento, o CTM (Close to The Metal).
Mas a ATI tem problemas sérios com isso, porquê:
- O CTM não está sendo amplamente adotado, em parte porque não tem um tacnologia que o impulsione como é o caso da engine de física PhysX da nVidia que só existe com o uso do CUDA e que é compatível com mais de duas centenas de títulos atualmente
- A ATI não tem interesse em que uma HD4870 substitua mais 100 opterons em cálculo de ponto flutuante, já que ela pertence a AMD; Ainda mais quanto a AMD está no vermelho devendo mais de um bilhão de dólares
- Como o CTM nasceu morto, a alternativa seria usar o CUDA, o que alavancaria ainda mais o poderio do CUDA+PhysX da nVidia (detalhe: a nVidia já ofereceu gratuitamente ambas as tecnologias e a ATI recusou)
5) Então a AMD/ATI ficará de fora do GPGPU?
A ATI um dia terá que aceitar o CUDA se não ela nunca será compatível com o PhysX e este já é e será, a menos que a Intel consiga dizer o contrário com a Havok, a engine mais utilizada de física.
Por outro lado a ATI já desenvolve GPU com o objetivos que na maioria das situações só os CPUs são capazes e já temos um nome: As placas FireStream (concorrentes da Tesla da nVidia), que são bem caras, mas que o lucro compensa ao concorrer com os Opterons da própria empresa.
6) A ATI hoje tem bom desempenho no conceito GPGPU?
Não. O CTM, com já disse, nasceu morto e não tem tido interesse por parte das softhouses. Se ela usar CUDA, aí sim posso dizer que ela tem um potencial enorme para o conceito GPGPU e quem ganhará com isso será o usuário final.
7) O conceito GPGPU é tão importante assim?
Sem dúvida. A próxima geração da Apple utilizará placas nVidia para aumento de performance dos aplicativos e o mesmo ocorrerá com vários aplicativos do Windows. Inclusive o Directx 11 será apoiado nesse conceito subtraindo recursos da GPU em prol do aumento de performance do sistema operacional (chamado de COMPUTE SHADER) e provavelmente terá seu auge com o sucessor do Vista, hoje conhecido como Windows Seven.
E se não fosse tão importante a Intel não estaria hoje entrando também no mercado de GPUs. Ela sabe que o rumo do processamento tomou outra direção e seria uma facada no próprio peito não considerar entrar de cabeça no mercado das GPUs.
8) E a plataforma da AMD GPU+CPU (objetivo principal da aquisição da ATI pela AMD) não teve sucesso?
Apesar da idéia ser interessante, ela nunca gerou frutos na prática, seja no aumento do desempenho ou no surgimento de novas tecnologias.
A Intel promete fazer essa integração com o Larabee e a nVidia já está desenvolvendo a plataforma NANO onde uma GPU se encarregaria de cuidar de todos os processos pesados de cálculo e uma CPU VIA responsável por suprir, dentro das instruções do X86, tudo aquilo que a GPU não puder fazer.
Como vocês vêem, a idéia do GPGPU (liderado hoje pela nVidia) e do que muitos já estão chamando de GPCPU (propósitos gerais para CPU, no caso do Larabee, liderado pela Intel) é forte, já existe na prática (no caso da nVidia) e mostra o quanto as CPUs poderão tornar-se insignificantes já em 2009 (onde até mesmo um simples processador VIA poderá agüentar até o jogo mais TOP com uma GPU cuidando da maioria dos cálculos).
9) Qual linguagem o Larabee irá usar?
C/C++
--------------------------------
Esse tópico tem como objetivo reunir todos os boatos e anúncios oficiais sobre o Larabee, ainda que essas informações sejam raras na Intenet.
Peço ainda a quem postar novas informações que classifique-a como [BOATO] ou [OFICIAL].
--------------------------------
Fonte: http://www.chutneytech.com/intel-release-technical-information-on-larabee/
Intel Release Technical Information on ‘Larabee’
Intel have released technical details about its upcoming line of microprocessors with the code-name of ?Larrabee?, in advance of the company?s presentation at the SIGGRAPH (Special Interest Group on Graphics and Interface Techniques) conference, in Los Angeles next week.
The chips will act as a springboard for a many-core x86 chip architecture. Intel says the processors should be on the market around 2009/10.
Larabee will launch an industry-wide effort to design and optimise software for thousands of cores expected to power the computers of the future, according to Intel.
“It’s revolutionary in that it is different from conventional GPU architectures, but evolutionary in that it uses existing (i.e. x86) technology,” said Jon Peddie, president of Jon Peddie Research, said.
Intel says the technology will offer a ?new approach to the software rendering 3-D pipeline, a many-core programming model, and performance analysis for several applications.?
The architecture behind Larabee was derived from Intel?s Pentium Processor. The new chip adds updates including a wide vector processing unit (VPU), multi-threading, 64-bit extensions and pre-fetching. Each enhancement facilitates a sizable increase in available power.
The processors? architecture supports four execution threads per core, with separate register sets per thread. ?This enables the use of a simple, efficient in-order pipeline while retaining many of the latency-hiding benefits of more complex out-of-order pipelines when running highly parallel applications,? Intel said.
“We have a lot of people trying to position different processing architectures. You’ve got Nvidia trying to position the GPU with CUDA (Compute Unified Device Architecture), which is basically a programming structure to use it as an accelerator, as a general purpose CPU (central processing unit) or whatever,” Jim McGregor, an analyst at In-Stat, said.
“Basically what Intel is doing is trying to leverage the x86 architecture in a way that it has not been leveraged before, as really kind of a head-end core to a high-end processing element that can be used as a server accelerator, [and] as a graphics accelerator.”
Peddie says some of the industry will just see Larabee as a graphics processing unit (GPU), but he believes the more accurate term for the chip I graphics capable processing unit (GCPU).
“Larrabee is not a GPU in the sense an ATI, Nvidia or S3 chip is a GPU; it is a gang of x86 cores that can do processing, so it is a GCPU — graphics capable processing unit, as are ATI, Nvidia and S3’s chips,” Peddie posted on his firm’s blog.
Intel has already said that Larabee will initially target the personal computer graphics market ? which means gaming machines. These early implementations will focus on discrete graphics applications, supports DirectX and OpenGL, and run existing games and programs.
Intel does however see Larabee as more than just a high-end gaming chip, and believes that the chip, with its native C/C++ programming model, will also have a place in a range of parallel applications, including scientific and engineering software.
?The chip will be optimal for any application that can use a SIMD (Single Instruction, Multiple Data) processor - 3D graphics, scientific computing, etc.,” Peddie noted.
The standalone chip will go head-to-head against offerings from Nvidia and AMD’s ATI.
“It will be easier for people to program applications for Larrabee. That’s the value of Larrabee. They’re going after the ultra high-end; stuff that’s going to be doing scientific simulations and stuff like that. They’re really cranking the power up to see what they can do, and then they’ll scale it back to see how it can fit into PCs,” In-Stat’s McGregor said.
Larabee is not aimed for the “heart of Nvidia’s and ATI’s market at this point in time. But obviously if they’re successful and they create a new computing/programming model around this type of architecture, it does go after that,” he explained.
Fonte: http://www.imediapress.com/rp/2008/08/04/intel-larabee-details-surface/
Intel Larabee details surface
Early details on Intel’s Larabee GPU, the nVidia killer, were unveiled today by Intel. The company is presenting a paper in SIGGRAPH on August 12th. The paper details a new approach to the software rendering 3-D pipeline, a many-core (many processor engines in a product) programming model and performance analysis for several applications.
The first product based on Larrabee will target the personal computer graphics market and is expected in 2009 or 2010. Larrabee will be the industry’s first many-core x86 Intel architecture, meaning it will be based on an array of many processors. The individual processors are similar to the Intel processors that power the Internet and the laptops, PCs and servers that access and network to it.
Initial product implementations of the Larrabee architecture will target discrete graphics applications, support DirectX and OpenGL, run existing games and programs. The tools will uses a native C/C++ programming model.
Here are some more details on the GPU
- The Larrabee architecture has a pipeline derived from the dual-issue Intel Pentium® processor, which uses a short execution pipeline with a fully coherent cache structure. The Larrabee architecture provides significant modern enhancements such as a wide vector processing unit (VPU), multi-threading, 64-bit extensions and sophisticated pre-fetching. This will enable a massive increase in available computational power combined with the familiarity and ease of programming of the Intel architecture.
- Larrabee also includes a select few fixed function logic blocks to support graphics and other applications. These units are carefully chosen to balance strong performance per watt, yet contribute to the flexibility and programmability of the architecture.
- A coherent on-die 2nd level cache allows efficient inter-processor communication and high-bandwidth local data to be access by CPU cores, making the writing of software programs simpler.
- The Larrabee native programming model supports a variety of highly parallel applications, including those that use irregular data structures. This enables development of graphics APIs, rapid innovation of new graphics algorithms, and true general purpose computation on the graphics processor with established PC software development tools.
- Larrabee features task scheduling which is performed entirely with software, rather than in fixed function logic. Therefore rendering pipelines and other complex software systems can adjust their resource scheduling based each workload’s unique computing demand.
- The Larrabee architecture supports four execution threads per core with separate register sets per thread. This allows the use of a simple efficient in-order pipeline, but retains many of the latency-hiding benefits of more complex out-of-order pipelines when running highly parallel applications.
- The Larrabee architecture uses a 1024 bits-wide, bi-directional ring network (i.e., 512 bits in each direction) to allow agents to communicate with each other in low latency manner resulting in super fast communication between cores.
- The Larrabee architecture fully supports IEEE standards for single and double precision floating-point arithmetic. Support for these standards is a pre-requisite for many types of tasks including financial applications.
Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9210&Itemid=1
Larrabee competes with Geforce 11, R900
Intel asked Fudzilla why don't we really take and like the fact that Intel's Larrabee might dominate the graphic world as other press do, and we answered comparing of Larrabee with Geforce 11 and R900. These products are very far away from silicon and production and therefore we have their younger brother to focus, before the 2010 chips arrive.
Yours truly said that Larrabee is as important for Fudzilla as Geforce 11 and R900. For graphic world domination you need a product, and Geforce 11, R900 and Larrabee are all in its early design stage. It takes around two years to make GPU and even more if you are doing that for the first time.
We can probably get some basic details about chips that are coming in 2010 like a manufacturing process, DirectX 1x support but not too many in depth details, as its still way to early.
Both Nvidia and ATI are working on their future products but for Nvidia and ATI they have to launch 2009 generation before they go to 2010 Larrabee competitors.