Criador do Stable Diffusion lança StableLM, concorrente ao ChatGPT

Criador do Stable Diffusion lança StableLM, concorrente ao ChatGPT

A Stability AI, conhecida por seu modelo de geração de imagens com inteligência artificial, o Stable Diffusion, anunciou o lançamento do StableLM. Trata-se de um concorrente de código aberto para o ChatGPT. A empresa londrina pretende criar um modelo de linguagem eficiente e acessível, semelhante ao desempenho do GPT-3, mas com menos parâmetros.

Leia também
12 personagens famosos que a Inteligência artificial imaginou como seriam na vida real
Inteligência artificial imagina Seu Madruga como personagem de filmes e séries famosas

StableLM pretende ser mais aberto que o chatbot da OpenAI

O StableLM é um modelo de linguagem que funciona de maneira similar ao GPT-4, o Large Language Model (LLM) que serve de base para o ChatGPT. Ele gera texto prevendo o próximo token ou fragmento de palavra, a partir de um prompt fornecido por um humano. O objetivo é criar textos semelhantes aos humanos e até mesmo escrever programas.

img 2361 1060x596 1

Atualmente em fase alfa, o StableLM está disponível no GitHub nos tamanhos de 3 bilhões e 7 bilhões de parâmetros. A Stability AI planeja lançar modelos de 15 bilhões e 65 bilhões de parâmetros em breve. Os modelos foram disponibilizados sob a licença Creative Commons BY-SA-4.0, o que exige que projetos derivados atribuam créditos ao autor original e compartilhem a mesma licença.

A empresa pretende desafiar a OpenAI, que apesar de seu nome “aberto”, raramente lança modelos de código aberto e mantém os pesos de suas redes neurais proprietários. A Stability AI afirma em seu blog que quer que todos tenham voz no projeto dos modelos de linguagem e que o StableLM demonstra seu compromisso com tecnologias de IA transparentes, acessíveis e solidárias.

StableLM possui desempenho surpreendente

Modelos com menos parâmetros são menores e mais eficientes. E isso facilita a execução deles em dispositivos locais, como smartphones e laptops. No entanto, alcançar alto desempenho com menos parâmetros requer engenharia cuidadosa, o que representa um grande desafio no campo da IA.

O StableLM foi treinado em um novo conjunto de dados experimental baseado no conjunto de dados de código aberto chamado The Pile. Só que o conjunto de dados com o qual o StableLM foi treinado é três vezes maior.

A Stability AI alega que a riqueza desse conjunto de dados, cujos detalhes serão divulgados posteriormente, é responsável pelo desempenho surpreendentemente alto do modelo em tarefas conversacionais e de codificação com tamanhos de parâmetros menores.

Primeiros testes já foram realizados

Testes informais com uma versão ajustada do modelo de 7 bilhões de parâmetros do StableLM, baseada no método Alpaca, mostraram desempenho superior ao do modelo LLaMA da Meta, que possui 7 bilhões de parâmetros.

No entanto, a solução da Stable AI ainda não está ao nível do GPT-3. Versões com maior quantidade de parâmetros do StableLM podem se mostrar mais flexíveis e capazes.

Os usuários podem testar o modelo base de 7 bilhões de parâmetros do StableLM no Hugging Face e a versão ajustada no Replicate. Além disso, o Hugging Face hospeda uma versão do StableLM ajustada para diálogos, com formato de conversa semelhante ao ChatGPT.

A Stability AI pretende lançar um relatório técnico completo sobre o StableLM em breve, o que pode oferecer mais informações sobre o potencial deste novo concorrente no mundo dos modelos de linguagem.

O lançamento do StableLM segue o sucesso do Stable Diffusion, um modelo de geração de imagens baseado em inteligência artificial, desenvolvido pela Stability AI em colaboração com pesquisadores do grupo CompVis na Universidade Ludwig Maximilian de Munique. O Stable Diffusion impulsionou o avanço da tecnologia de síntese de imagens e atraiu a atenção de artistas e corporações, alguns dos quais processaram a Stability AI.

Com a entrada da Stability AI no campo dos modelos de linguagem, é possível que a empresa provoque um impacto semelhante ao que ocorreu com o Stable Diffusion. Ao tornar a tecnologia de modelos de linguagem mais acessível e transparente, a Stability AI pode catalisar o desenvolvimento e a inovação em várias aplicações, desde chatbots e assistentes pessoais até análise de texto e geração de conteúdo.

Fontes: Stability AI via Ars Technica

Sobre o Autor

Avatar de Felipe Alencar
Cearense. 34 anos. Apaixonado por tecnologia e cultura. Trabalho como redator tech desde 2011. Já passei pelos maiores sites do país, como TechTudo e TudoCelular. E hoje cubro este fantástico mundo da tecnologia aqui para o HARDWARE.
Leia mais
Redes Sociais:

Deixe seu comentário

X