- AiDrop
- Posts
- 🤖 O supercomputador capaz de simular o universo
🤖 O supercomputador capaz de simular o universo
+ os lançamentos da Meta e da Mistral
Hey Droppers!
Na coluna ‘Ferrou’ de hoje: se você se incomodava com as pessoas olhando para o celular sem parar, espera só até conhecer o novo laptop sem tela da Spacetop.
No drop de hoje, repetindo a palavra IA 61x:
A nova Lhama de 405 bilhões de Zuck.
O supercomputador capaz de simular o universo
Mistral mostrou que tamanho não é documento
Me explique como se eu fosse uma criança: Fine-tuning
Casos de Uso: Stability, OpenAi, Udio, Lenovo, Adobe, Harvey, Cohere, Google, LinkedIn, Bing
Seu trabalho não será substituído por uma Inteligência Artificial, mas por alguém utilizando Inteligência Artificial. Quer ficar por dentro da década de avanços que rolam no universo de IA todas as semanas? Assina o AiDrop e te contamos tudo, sem tecniquês, todas as quintas-feiras no seu inbox.
A nova Lhama de 405 bilhões de Zuck…
meta, llama, zuckerberg, llm, open-source
Com o visual mais millenial possível, Zuck usou um podcast para anunciar os mais novos lançamentos da Meta IA - que, segundo o mesmo, está no caminho para se tornar a IA mais utilizada no mundo até o final do ano (#SeCuidaGPT).
Usando a bandeira das IAs open-source, Mark lançou a mais nova versão da IA da Meta: Llama 3.1 nos modelos 8B, 70B, e a gigante de 405B parâmetros. Nos benchmarks de comparação, os modelos superaram a performance dos concorrentes em aspectos como: matemática, raciocínio, uso de ferramentas e contextos longos.
Por ser uma IA open-source, diferente das concorrentes que optaram por não abrir o capô, além de mais barata e rodar localmente, também pode ser utilizada para treinar sua própria IA da maneira que você desejar.
Mark também fez uma carta de declaração de amor à sua tese de IAs open-source: mais democráticas, mais colaborativas e mais acessíveis que tecnologias ou apps fechados - ah, disse também que o Llama 4 já está em desenvolvimento.
Casos de Uso
Stability AI soltou o Stable Video 4D, um modelo de IA que pode transformar vídeos de objetos únicos em vários vídeos de oito ângulos diferentes.
OpenAI pode gastar até U$5bi este ano custos operacionais, incluindo U$7bi para treinamento e inferência em IA e U$1,5bi em quadro de funcionários.
Udio lançou a versão 1.5 de seu gerador de música AI, com melhoria na qualidade de áudio, controle de teclas e resultados de idioma aprimorados.
Lenovo quer que todos os seus PCs tenham IA embutidas nativamente até 2027.
Adobe lançou novas ferramentas Firefly AI para Illustrator e Photoshop.
Harvey, a IA dos advogados, captou uma rodada série C de U$100mi liderada pelo Google Ventures, avaliando o novo unicórnio em U$1,5bi.
Cohere lançou o Rerank 3 Nimble, um novo modelo para pesquisa corporativa e sistemas RAG, que oferece desempenho 3x mais rápido que seu antecessor.
Google desenvolveu um novo modelo meteorológico e climático baseado em IA chamado ‘NeuralGCM’, combinando métodos de aprendizado de máquina e redes neurais com modelagem tradicional baseada na física.
LinkedIn está implementando inteligência artificial para emitir conselhos de carreira aos usuários da rede social.
Bing da Microsoft está testando uma nova experiência de pesquisa generativa que combina resultados de pesquisa tradicionais com conteúdo gerado por IA.
Trending: Kling AI, a IA generativa do Kwai está aberta ao público e agora você também poderá criar vídeos bizarros iguais àqueles da coluna ‘Ferrou’ da edição passada. |
O supercomputador capaz de simular o universo
musk, xAI, x, grok, nvidia, h100
Para construir a IA mais poderosa do mundo, nada mais justo que também construir o maior super-computador do mundo. Memphis Supercluster é o nome da fera capaz de simular um universo inteiro ou executar os campos de batalha do COD: Warzone em gráficos médios sem travar.
Desenvolvido em apenas 19 dias, o Super Cluster é uma enorme rede de chips trabalhando juntos como uma única unidade para resolver cálculos super complexos em velocidades absurdas:
Utiliza 100.000 GPUs Nvidia H100 com refrigeração líquida em uma única malha RDMA;
Consome até 150 megawatts de eletricidade por hora – o suficiente para 100k residências.
Usa pelo menos 1 milhão de galões de água por dia para se refrescar!
A versão atual disponível é a Grok 1. Já a nova versão, Grok 2, está nas últimas etapas de desenvolvimento (fine-tuning) e já tem performance comparada a do GPT-4. O sucessor da linhagem, Grok 3, ficará pronto até dezembro e promete ser a IA mais poderosa já criada em todas as métricas.
Tendo em vista que cada chip H100 custa em torno de U$30k a U$40k, é estimado que o investimento usou cerca de 50 a 67% dos U$6bi levantados em maio deste ano. Mas não para por aí, outros $9bi devem ser investidos em aceleradores Blackwell B200 para utilizar tanto para IAs quanto para o X.
Agora, nos resta apenas esperar para ver o que esse número estrondoso de GPUs pode trazer, junto com os dados captados de todas suas bases (X, Tesla, SpaceX e até Neuralink).
Me explique como se eu fosse uma criança
Fine-tuning: Ajuste fino Imagine que você tem um robô contador de histórias, mas ele precisa aprender a contar do jeitinho que você gosta. Então, você mostra várias histórias para ele. Com o tempo, ele aprende a contar usando as palavras certas e do estilo que você prefere. Isso é o fine-tuning: treinar a IA com novos exemplos para que ela melhore em algo específico. |
A evolução da humanidade do marketing de conteúdo com IA
Apresentado pela HubSpot
Idade da pedra: época em que escrever um conteúdo e publicá-lo em um blog era suficiente para colocar sua marca à frente da concorrência - que malemá tinha um site.
Idade do bronze: época que, além de ter conteúdo no blog, ele precisava ser otimizado, focado em keywords, estruturado para compreensão dos mecanismos de busca.
Idade do ferro: fase onde além de produzir e otimizar, também era necessário distribuir, já que as redes sociais se tornaram o grande canal direcionador de tráfego da web.
Idade moderna: em seguida chegou a fase do reaproveitamento, quando um mesmo conteúdo era criado em formato de texto, de áudio, de vídeo, de infográfico, em pílulas menores para social, em maiores para ebooks.
Por fim, entramos na fase atual e mais revolucionária: da Inteligência Artificial
Mas não se assuste, a HubSpot tratou de unir todas fases anteriores e integrar IA nativa na sua nova ferramenta, o Content Hub, que une todo o passado e o futuro dos times de marketing no mesmo lugar. Tem como melhorar? É de graça.
Mistral mostrou que tamanho não é documento
mistral, llm, open-source, large, coding
Quem não quis ficar de fora da festa dos LLMs foi a francesa Mistral, que anunciou a nova versão do seu maior modelo até hoje, Mistral Large 2:
Possui 123 bilhões de parâmetros, menos de ⅓ do Llama 3.1 405B da Meta, mas o supera em geração de código e matemática.
Apresenta uma janela de contexto de 128.000 tokens e suporte multilíngue aprimorado para 12 idiomas e 80 linguagens de codificação.
Promete minimizar as alucinações e produzir respostas mais concisas do que os principais modelos de IA.
A comparação com a Llama é inevitável pelo fato de ambos serem open-source. Mas o destaque fica para um modelo significativamente menor que o outro demonstrar a mesma performance nos benchmarks de comparação.
O ML2 já está disponível para testes através do Le Chat e através das principais plataformas cloud - mas necessita de uma licença premium para uso comercial.
Llama Tutor, um tutor pessoal capaz de explicar qualquer assunto.
Greptile, bot de revisão de código automatizado.
Summer, gere sumários automáticos dos seus blog posts.
ChartFast, seu cientista de dados de IA.
QuickHeadShots, transforme suas selfies em 400 fotos profissionais
Educato, construa sua própria escola online usando IA
PROMPT LIKE A PRO
Esse prompt é uma espécie de Fine-tuning dentro de um chat: você ensinará ele os padrões que deverá seguir e ele raciocinará a partir das referências.
Você pode utilizar isso para, por exemplo, agilizar sua resposta de e-mails:
Prompt:
# Armazene esses padrões de resposta de e-mails:
<exemplo-1>
## E-mail recebido:
[coloque o texto do e-mail]
## E-mail enviado
[coloque o texto do e-mail resposta]
</exemplo-1>
(adicione alguns exemplos, quanto mais, maior será a similaridade com seu estilo de escrita)# A partir destes padrões, suas próximas respostas deverão ser respondidas no mesmo tom e estilo de escrita dos e-mails resposta.
Após esse segundo prompt, você precisará somente contextualizá-lo:# Assunto: [Assunto da conversa]
# Destinatário: [Nome]
# E-mail recebido:
[solta um ctrl-v do texto do e-mail]
Em outros contextos de padronização, apenas utilize o mesmo modelo de “acrescentar exemplos”, adicione a ordem da segunda etapa e, nas próximas solicitações, contextualize o GPT para melhorar o output.
MEME
O que achou da edição de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Nossa missão é elevar o QI da internet. Nossas news filtram a internet para te entregar uma dieta saudável, rápida e inteligente de informações diretamente no seu inbox.
Dê tchau as assinaturas pagas, banners indesejados, pop-ups intrometidos. Ah, e ainda é free e forever will be:
Notícias inteligentes - sem ser chatas - de tecnologia e negócios, todas as segundas, quartas e sextas, direto no seu inbox. |
Sua dieta semanal do mercado financeiro para quem não tem CNPI e nem fala economês, mas também não quer ficar de fora. |
Marcas - vamos trabalhar juntos? Fala com a gente.
Antes de ir embora.. tá curtindo o conteúdo e quer continuar recebendo? então arrasta esse e-mail para sua lista prioritária.
Reply