- AiDrop
- Posts
- 🤖 A Faculdade de GPTs
🤖 A Faculdade de GPTs
+ Casos de Uso: BMW fazendo carros com IA, Meta AI & UFC e mais...
Hey, Droppers!
Na coluna ‘Ferrou’ de hoje: a IA já está sendo capaz de escanear um ambiente por ondas de rádio geradas pelo Wi-Fi e visualizar em tempo real a localização das pessoas dentro de um cômodo.
No drop de hoje, repetindo a palavra IA centenas de vezes:
Brain-to-voice: a IA no mundo da reabilitação
OpenAI: uma faculdade pública de GPTs
Testes de IA: subindo a régua dos benchmarks
Os Casos de Uso: Cientistas, Meta, Subsidiária da BMW, University Hospitals Cleveland, Fretebras, Especialistas em catástrofes
Prompt Like a Pro: Usando tags nos formatos de saída
Seu trabalho não será substituído por uma Inteligência Artificial, mas por alguém utilizando Inteligência Artificial. Quer ficar por dentro da década de avanços que rolam no universo de IA todas as semanas? Assina o AiDrop e te contamos tudo, sem tecniquês, todas as quintas-feiras no seu inbox.

A emocionante evolução do brain-to-voice
implante cerebral, recuperação da fala, ciência, bci

Imagine passar 18 anos sem conseguir falar. Agora imagine a emoção de reverter isso graças à tecnologia. Essa é a realidade de uma mulher de 47 anos dos Estados Unidos, participante de um estudo da Universidade de Berkeley.
Ann, como é chamada na pesquisa, recebeu um implante cerebral com 253 eletrodos no córtex que são capazes de traduzir seus pensamentos em fala, permitindo que ela volte a se comunicar com as outras pessoas através do computador.
Essa tecnologia, chamada de Brain-Computer-Interface (BCI) utiliza IA para decodificar os sinais neurais e transformá-los em fala audível em até 3 segundos.
Para o treinamento da IA, os pesquisadores usaram gravações da voz da própria Ann que permitiram que a voz gerada fosse similar a original, com ritmo, tom e longe da voz de parecer a voz robótica da tradutora do Google dos sistemas antigos.
Durante os testes, Ann leu mentalmente frases exibidas em uma tela e o dispositivo transformou em fala seus sinais neurais, feitos nos seguintes parâmetros:
Captação dos sinais a cada 80 milissegundos (ms);
Início da leitura 500 ms antes da “fala” silenciosa;
Vocabulário usado: 1.024 palavras e 50 frases;
Produção de 47 a 90 palavras/min (fala natural: ~160/min).
Em resumo: uma redução do tempo de resposta em relação a dispositivos anteriores que levavam até 20 segundos por frase. O dispositivo ainda tem falhas perceptíveis mas, quanto mais os modelos evoluem, mais as limitações tendem a desaparecer.
🤖 Casos de Uso
Cientistas desenvolveram um sistema que usa IA e laser para fazer "tomografias" em sementes, avaliando sua vitalidade sem danificá-las.
Meta se torna parceira oficial de tecnologia da UFC, integrando suas plataformas e produtos (como Meta AI e Glasses) para transformar a experiência dos fãs com conteúdos imersivos e interativos.
Subsidiária da BMW está projetando carros (BMW, Mini e Rolls-Royce), aviões (Sirius Aviation, Starlux, Ionity…) e trens utilizando IA.
University Hospitals Cleveland testa IA para detectar precocemente câncer de pulmão, e ampliando a triagem os níveis de triagem atual.
Fretebras, o marketplace de fretes, investiu R$ 800mi em IA no cadastro de motoristas resultando em crescimento de mais de 100x.
Especialistas em catástrofes de seguradoras estão usando IA para prever e reduzir os prejuízos segurados, que já alcançam US$ 150bi/ano diante do aumento de desastres naturais como incêndios, furacões e enchentes.
![]() | O repositório DeepSite (criado a partir da DeepSeek) está fazendo sucesso no Hugging Face. Com plain-text é possível criar landing pages completas e jogos complexos. Você pode testar aqui. |
A Faculdade de GPTs
openai, cursos gratuitos, workshops, faculdade

A OpenAI decidiu tirar o status de “clubinho fechado” da sua frente de educação e transformar a iniciativa OpenAI Academy em um hub online gratuito for all —antes limitado a devs e organizações selecionadas.
O que tem nessa ‘faculdade’ de IA?
Cursos 0800: do basicão (“O que é um prompt?”) até como integrar as ferramentas de forma mais avançada;
Workshops: eventos educativos com as faculs e ONGs parceiras, para que os alunos coloquem a mão na massa;
Comunidade: um espaço para conectar, compartilhar conhecimento e fazer bom uso dos fóruns da OpenAI;
Conteúdo em várias línguas: pra furar a bolha americana e atender regiões como a América Latina e Ásia.
Da porta para fora, a OAI deixa a sua missão explícita: democratizar o conhecimento. Professores, estudantes e donos de pequenos comércios poderão estudar e ter mais autonomia na hora de fazer “milagres tech” no dia a dia.
Da porta para dentro, é a missão é outra! Educação é mais uma das táticas para continuar na liderando a briga das IAs, não sobre quem tem o melhor modelo, mas sim para quem consegue fidelizar e continuar crescendo a sua base de usuários.
P.s.1: OpenAI bateu 150milhões de usuários ativos mensais após crescimento explosivo devido as polêmicas e virais da Ghiblização.
P.s2: A OpenAI também lançou um benchmark open-source para analisar a performance de agentes de IA.
PROMPT LIKE A PRO

Quando você estiver escrevendo um texto pelo ChatGPT, solicite que ele escreva em formatos diferentes na mesma saída a partir das tags XML (<tag></tag>), para você fazer comparações e adaptações na versão final do texto.
# Primeiro, me dê uma versão resumida, dentro das tags <versão-curta></versão-curta>, mantendo toda a especificidade e contexto do original.
# Quando terminar, escreva uma versão ainda mais resumida, em <versão-mais-curta-ainda></versão-mais-curta-ainda>
# Após isso, organize-o em tópicos de bullet list de apenas uma frase.
# Texto:
[texto na próxima mensagem]
🤖 Novidades em IA
Google DeepMind publicou um paper de 145 páginas sobre a chegada da AGI até 2030, apresentando os riscos severos e as consequências de maus usos.
Gemini terá uma substituição na liderança do projeto com a chegada de Josh Woodward, vice-presidente do Google Labs que evoluiu o NotebookLM.
Adobe lançou um recurso de extensão de vídeo gerado por IA dentro do Adobe Premiere, ao lado de busca por IA na timeline e tradução de legendas.
Meta apresentou o MoCha, gerador de vídeos de personagens falantes com corpo inteiro, expressões naturais e diálogos entre múltiplos personagens.
Anthropic lançou o Claude for Education, uma versão voltada para universidades, com modo de aprendizado guiado e parcerias com instituições.
Tencent criou o AnimeGamer, um modelo que simula a “vida” dentro de um anime (treinado), gerando um game interativo.
Subindo a régua nos testes de IA
benchmarks, agi, testes de quebra-cabeça

Você lembra de quando os LLMs mais parrudos da OpenAI estavam quase gabaritando os testes do ARC-AGI-1 no final do ano passado? Essa festa acabou com a chegada do ARC-AGI-2.
A nova versão do teste criado pela Arc Prize Foundation (do pesquisador François Chollet) está fazendo as IAs – que muitas vezes parecem PhD – se sentirem no jardim de infância em algumas tarefas.
Como funciona? O ARC-AGI é um benchmark que esquece a matemática e o código, focando em raciocínio abstrato com ~1.300 puzzles visuais.
Nele, a IA tem que compreender os padrões em grades de pixels coloridos e gerar a solução sem ter visto aquele problema específico antes. Isso testa se ela consegue se adaptar como um humano (supostamente) faria.
Por que o ARC-AGI-1 foi substituído?
Por um simples motivo: ficou fácil demais para a nova geração dos “reasoning models” – lembrando que os criadores prometeram US$ 1 milhão para quem vencer todo o desafio. Exemplo: na V1 os modelos da OpenAI tiveram os seguintes resultados:
→ o1-mini chegou aos 7,8%;
→ o3-low bateu 76%;
→ o3-high chegou aos incríveis 87,5%.
A nova geração do teste chegou para mudar essas notas e colocar novos obstáculos na hora de uma IA comprovar que está pronta para vencer os humanos em tudo. O desconforto que o novo teste causou é notável:
Modelos de reasoning (o1-pro e DeepSeek R1) mal atingiram 1.3% de acerto.
O LLM mais parrudo sem reasoning (GPT-4.5) fez 0% de acerto.
O modelo o3-low – que tinha conseguido 76% na primeira versão – só acertou 4%.
O o3-high (com maiores chances de sucesso) fica de fora da competição porque seu custo por tarefa subiu de ~US$ 1-3k para ~U$ 30k – tornando financeiramente inviável a participação.
Enquanto isso, nós humanos fazemos 60% na média.
A ideia do novo teste é acabar com a força bruta e decorebas dos LLMs, mas os resultados também mostram que o paradoxo de Moravec — a IA achar difícil o que pra gente é fácil — começa a dar as caras. Pelo menos para montar quebra-cabeças ainda estamos na frente.
P.S. Se algum modelo gabaritar o teste, não significa que ele virou a Skynet… mas mostra que ele está bem mais próximo da verdadeira AGI.
Game: Qual a imagem é gerada por IA?
Afie seu olho contra os deepfakes do mal!
![]() | ![]() |
Qual é a imagem que a IA fez?hora de testar sua visão... |
Faça Login ou Inscrever-se para participar de pesquisas. |

O que achou da edição de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Antes de ir…
Sabe aquele amigo que só usa o ChatGPT para pedir receitas? Ou o primo que acha que IA é “igual Alexa”?
Tá na hora de indicar o AiDrop. A newsletter que entrega o que importa em IA – pra salvar o trampo, ganhar debates e nunca mais ficar por fora das principais inovações do mercado.
Nesse momento, você tem 0 indicações. Você precisa de mais 3 para ganhar cAIxa de ferramentas. |
DROPS
Elevando o QI da internet no Brasil, uma newsletter por vez. Nós filtramos tudo de mais importante e relevante que aconteceu no mercado para te entregar uma dieta de informação saudável, rápida e inteligente, diretamente no seu inbox. Dê tchau as assinaturas pagas, banners indesejados, pop-ups intrometidos. É free e forever will be.
Antes de ir embora… arraste este e-mail para sua lista prioritária, assim você não perde nenhum drop e nós não travamos na alfândega da web caixa de spam. Ah, pode nos responder também, lemos tudinho.
Reply