Início Site

TypeScript Lidera Ranking do GitHub: A Era da IA e a revolução

0

A Ascensão Histórica do TypeScript no Desenvolvimento de Software

Em agosto de 2025, o ecossistema de desenvolvimento de software testemunhou um marco histórico: o TypeScript, a variante fortemente tipada do JavaScript desenvolvida pela Microsoft, tornou-se pela primeira vez a linguagem mais utilizada no GitHub, ultrapassando tanto JavaScript quanto Python. Este acontecimento não é apenas uma curiosidade estatística — representa uma mudança fundamental na forma como desenvolvedores escolhem suas ferramentas em uma era dominada pela inteligência artificial.

O Relatório Octoverse 2025: Dados Que Revelam Uma Nova Realidade

O relatório Octoverse 2025 do GitHub, divulgado em 28 de outubro, mostra que o TypeScript cresceu mais de 1 milhão de contribuidores em 2025 (aumento de 66% ano a ano). Este crescimento explosivo não ocorreu por acaso.

Números Impressionantes do Crescimento Global

A plataforma GitHub registrou um crescimento sem precedentes em múltiplas métricas:

  • Mais de um novo desenvolvedor se junta ao GitHub a cada segundo — totalizando 36 milhões de novos desenvolvedores no último ano
  • A plataforma agora conta com mais de 180 milhões de desenvolvedores
  • Desenvolvedores criaram mais de 230 novos repositórios por minuto
  • 43,2 milhões de pull requests foram mesclados em média por mês (aumento de 23% ano a ano)
  • Quase 1 bilhão de commits foram enviados em 2025 (crescimento de 25,1% ano a ano), incluindo um recorde de quase 100 milhões apenas em agosto

Por Que TypeScript Superou Gigantes como Python e JavaScript?

A ascensão do TypeScript ao topo não foi acidental. Três fatores-chave explicam esse fenômeno:

1. Frameworks Modernos Adotam TypeScript Como Padrão

A maioria dos principais frameworks front-end agora configura projetos em TypeScript por padrão. Isso significa que desenvolvedores usando React, Angular, Vue.js, Next.js e outras ferramentas populares automaticamente trabalham com TypeScript desde o início de seus projetos.

Exemplos práticos:

  • Next.js: Cria projetos TypeScript automaticamente com create-next-app
  • Angular: Utiliza TypeScript como linguagem nativa desde sua versão 2.0
  • Vue 3: Oferece suporte de primeira classe para TypeScript
  • NestJS: Framework Node.js construído inteiramente em TypeScript

2. IA e Desenvolvimento Assistido Funcionam Melhor Com Tipagem Forte

A mudança em direção a linguagens tipadas pode tornar a codificação assistida por agentes mais confiável em produção. Ferramentas de IA como GitHub Copilot, Claude Code e ChatGPT geram código mais preciso e seguro quando trabalham com TypeScript devido ao sistema de tipos.

Vantagens práticas da tipagem para IA:

  • Menos erros de runtime: O sistema de tipos detecta inconsistências antes da execução
  • Autocomplete inteligente: A IA entende a estrutura de dados e sugere código mais preciso
  • Refatoração segura: Mudanças em tipos se propagam automaticamente pelo código
  • Documentação implícita: Tipos servem como documentação viva do código

3. O Ecossistema JavaScript/TypeScript Domina a Atividade de Desenvolvimento

Embora Python permaneça dominante para cargas de trabalho de IA e ciência de dados, o ecossistema JavaScript/TypeScript representa mais atividade geral de desenvolvimento. Isso reflete a onipresença do desenvolvimento web, mobile e full-stack.

Python Ainda Domina IA e Ciência de Dados — Por Enquanto

É importante contextualizar: Python continua dominante em IA e ciência de dados com 2,6 milhões de contribuidores (aumento de 48% ano a ano). A linguagem permanece como a escolha preferencial para:

  • Machine Learning e Deep Learning: TensorFlow, PyTorch, scikit-learn
  • Análise de Dados: Pandas, NumPy, Matplotlib
  • Notebooks Interativos: Jupyter, Google Colab
  • Pesquisa Científica: SciPy, Biopython

O crescimento de Python está intimamente ligado ao boom da IA. O relatório Octoverse de 2024 (período anterior) mostrou que Python ultrapassou JavaScript pela primeira vez, impulsionado justamente pela explosão de projetos de machine learning.

As Três Mudanças-Chave Relacionadas à IA

As três principais mudanças citadas no relatório estão todas relacionadas à inteligência artificial:

1. Linguagens Tipadas Estão em Ascensão

TypeScript, Rust e Go mostram crescimento acelerado. Desenvolvedores valorizam cada vez mais:

  • Segurança em tempo de compilação
  • Melhor experiência de desenvolvimento (DX)
  • Código mais manutenível em projetos grandes

2. Ferramentas de IA Generativa São Agora Padrão

O uso de ferramentas de IA generativa tornou-se padrão no desenvolvimento, com mais de 1,1 milhão de repositórios públicos agora usando SDKs de LLM (Large Language Models).

Ferramentas populares incluem:

  • GitHub Copilot: Autocompletar código com IA
  • ChatGPT/Claude: Assistentes de programação conversacionais
  • Cursor: Editor com IA integrada
  • Tabnine: Autocompletar contextual

3. Agentes de IA Estão Começando a Aparecer

Sinais iniciais nos dados mostram o impacto de agentes de IA, mas o GitHub afirma que “estamos apenas começando e esperamos atividade muito maior nos próximos meses e anos”.

Agentes de IA podem:

  • Revisar código automaticamente
  • Sugerir refatorações complexas
  • Gerar testes unitários
  • Documentar código existente
  • Detectar vulnerabilidades de segurança

A Era da IA Não Substitui Desenvolvedores — Multiplica Sua Produtividade

Uma preocupação comum era que a IA substituiria programadores. Os dados mostram o oposto: a liberação do GitHub Copilot Free no final de 2024 coincidiu com um aumento acelerado nas inscrições de desenvolvedores, superando projeções anteriores.

Como a IA Está Transformando o Trabalho do Desenvolvedor

Tarefas que IA acelera:

  1. Boilerplate e código repetitivo: Geração automática de estruturas básicas
  2. Tradução entre linguagens: Converter Python para TypeScript, por exemplo
  3. Debugging: Identificar e sugerir correções para bugs
  4. Documentação: Gerar comentários e documentação técnica
  5. Testes: Criar casos de teste abrangentes

Habilidades que se tornam mais valiosas:

  1. Arquitetura de software: Decisões de alto nível sobre estrutura
  2. Revisão de código: Avaliar qualidade e segurança
  3. Design de sistemas: Criar soluções escaláveis
  4. Comunicação: Trabalhar com equipes e stakeholders
  5. Pensamento crítico: Avaliar soluções propostas pela IA

Repositórios Relacionados à IA Explodem em Número

O GitHub registrou mais de 4,3 milhões de repositórios relacionados à IA, demonstrando que desenvolvedores em todo o mundo estão experimentando e construindo com tecnologias de inteligência artificial.

Categorias populares de projetos IA:

  • SDKs e wrappers de LLMs: Facilitar integração com modelos
  • Chatbots e assistentes: Interfaces conversacionais
  • Ferramentas de desenvolvimento: Plugins e extensões
  • Modelos locais: Executar IA sem dependência de cloud
  • Fine-tuning: Personalizar modelos para casos específicos

Comparação com Anos Anteriores: A Trajetória do TypeScript

Histórico de Crescimento (2020-2025)

Para entender a magnitude dessa mudança, vejamos a evolução:

2020: TypeScript estava entre as top 10 linguagens, mas distante do topo 2021: Começa ascensão acelerada com adoção empresarial 2022: Surge no top 5, frameworks começam adoção padrão 2023: Cresce 45% em contribuidores, aproxima-se de JavaScript 2024: Python ultrapassa JavaScript, mas TypeScript segue em crescimento 2025: TypeScript assume a liderança pela primeira vez

O Que Mudou no Ecossistema?

Fatores técnicos:

  • Melhorias significativas no compilador TypeScript
  • Ferramentas de build mais rápidas (esbuild, swc)
  • Melhor integração com editores e IDEs
  • Tipos mais expressivos e flexíveis

Fatores culturais:

  • Empresas exigem TypeScript para novas contratações
  • Comunidade open source migra projetos para TypeScript
  • Tutoriais e cursos priorizam TypeScript sobre JavaScript
  • Desenvolvedores juniores aprendem TypeScript desde o início

Outras Linguagens em Destaque no Relatório

Embora TypeScript tenha roubado os holofotes, outras linguagens merecem atenção:

Rust: A Linguagem de Sistemas em Crescimento

Por que Rust cresce:

  • Segurança de memória sem garbage collector
  • Performance comparável a C/C++
  • Comunidade engajada e acolhedora
  • Adoção em projetos críticos (Linux kernel, AWS, Microsoft)

Go: Simplicidade Para Sistemas Distribuídos

Vantagens do Go:

  • Sintaxe limpa e fácil de aprender
  • Concorrência nativa (goroutines)
  • Compilação rápida
  • Ideal para microsserviços e cloud

Kotlin: Alternativa Moderna ao Java

Crescimento do Kotlin:

  • Linguagem oficial para Android
  • Interoperabilidade com Java
  • Sintaxe mais concisa e expressiva
  • Null safety integrado

Impacto no Mercado de Trabalho e Carreiras

Demanda por Desenvolvedores TypeScript Dispara

Tendências observadas em 2025:

  • Vagas TypeScript crescem 80% ano a ano
  • Salários médios 15-20% superiores a JavaScript puro
  • Empresas preferem TypeScript para projetos novos
  • Migrações de JavaScript para TypeScript aumentam

Habilidades Mais Valorizadas em 2025

Top 5 habilidades técnicas:

  1. TypeScript avançado: Tipos complexos, generics, utilities
  2. Frameworks modernos: React, Next.js, Vue 3
  3. Desenvolvimento assistido por IA: Uso eficiente de Copilot e ferramentas
  4. Arquitetura de sistemas: Design patterns, microserviços
  5. DevOps e CI/CD: Automação, containers, cloud

Soft skills essenciais:

  1. Adaptabilidade: Aprender novas ferramentas rapidamente
  2. Colaboração remota: Trabalho assíncrono eficiente
  3. Code review: Dar e receber feedback construtivo
  4. Comunicação técnica: Explicar conceitos complexos
  5. Mentoria: Compartilhar conhecimento com equipe

Como a IA Influencia a Escolha de Linguagens

As mudanças sugerem que a IA agora influencia não apenas a rapidez com que o código é escrito, mas quais linguagens e ferramentas os desenvolvedores usam.

Critérios de Seleção Afetados pela IA

Antes da IA (2020-2023):

  • Familiaridade da equipe
  • Disponibilidade de bibliotecas
  • Performance e escalabilidade
  • Curva de aprendizado

Na era da IA (2024-2025):

  • Qualidade das sugestões de IA
  • Segurança do código gerado
  • Facilidade de refatoração automática
  • Detecção automática de bugs
  • Todos os critérios anteriores continuam relevantes

Linguagens Que Se Beneficiam Mais da IA

TypeScript lidera porque:

  • Sistema de tipos guia a IA
  • Erros são detectados antes da execução
  • Refatorações são mais seguras
  • Documentação é implícita nos tipos

Python se destaca por:

  • Sintaxe clara favorece compreensão da IA
  • Vasta quantidade de código de treinamento
  • Bibliotecas bem documentadas
  • Comunidade ativa gerando exemplos

Segurança e Melhores Práticas na Era do Código Assistido por IA

Desafios de Segurança com Código Gerado por IA

Riscos comuns:

  • Injeção de código malicioso: IA pode sugerir padrões inseguros
  • Dependências desatualizadas: Recomendações baseadas em código antigo
  • Vazamento de dados sensíveis: Atenção ao compartilhar código com IA
  • Violação de licenças: Código gerado pode infringir copyrights

Boas práticas:

  1. Sempre revisar código gerado: Nunca aceitar cegamente
  2. Usar ferramentas de análise estática: ESLint, SonarQube, etc.
  3. Testes automatizados abrangentes: Garantir funcionalidade
  4. Revisão de segurança: Scan de vulnerabilidades
  5. Atualizar dependências: Manter bibliotecas atualizadas

OpenSSF Scorecard e Segurança Open Source

O GitHub menciona a ampla adoção do OpenSSF Scorecard, que avalia repositórios quanto a práticas de segurança. Com 82% dos desenvolvedores considerando “secure by design” importante, a segurança se torna um diferencial competitivo.

Previsões Para 2026 e Além

Tendências Esperadas

Curto prazo (2026):

  • TypeScript mantém liderança e amplia vantagem
  • Rust entra no top 5 de linguagens mais usadas
  • Python continua dominando IA/ML mas cresce mais lento
  • Agentes de IA se tornam mainstream no desenvolvimento

Médio prazo (2027-2028):

  • Linguagens tipadas representam 60%+ da atividade no GitHub
  • IA gera 40-50% do código em projetos médios/grandes
  • Desenvolvedores focam principalmente em arquitetura e design
  • Surgem novas linguagens otimizadas para desenvolvimento assistido por IA

Longo prazo (2029+):

  • Programação em linguagem natural se torna viável para casos simples
  • Agentes autônomos desenvolvem features completas com supervisão mínima
  • Desenvolvedor se torna mais “gerente de IA” do que escritor de código
  • Segurança e ética de IA ganham ainda mais importância

GitHub Copilot Free: Catalisador da Democratização

A disponibilização do GitHub Copilot Free no final de 2024 foi um divisor de águas. Anteriormente limitado a assinantes pagantes, o acesso gratuito:

Impactos observados:

  • Estudantes e desenvolvedores iniciantes ganham acesso
  • Países em desenvolvimento aumentam contribuições open source
  • Projetos pessoais e side-projects se tornam mais ambiciosos
  • Curva de aprendizado de novas linguagens diminui drasticamente

Estatísticas relevantes:

  • Aumento de 180% em novos usuários três meses após o lançamento
  • 45% dos novos usuários vêm de mercados emergentes
  • Tempo médio para primeira contribuição open source cai 40%

Metodologia do Relatório Octoverse

O ano Octoverse cobre o período de 1º de setembro de 2024 a 31 de agosto de 2025, e as métricas refletem apenas atividade pública, salvo indicação contrária.

Como o GitHub Mede “Mais Usado”

Métricas consideradas:

  • Contribuidores mensais únicos
  • Commits enviados
  • Pull requests abertos e mesclados
  • Issues criadas e comentadas
  • Discussões participadas
  • Revisões de código realizadas

Importante: Por contagem de contribuidores do GitHub, agosto de 2025 marca a primeira vez que TypeScript emergiu como a linguagem mais usada no GitHub, ultrapassando Python por aproximadamente 42 mil contribuidores.

Comparação com Outros Índices

Outros índices de popularidade podem ter resultados diferentes:

  • TIOBE Index: Baseado em buscas na web
  • Stack Overflow Survey: Baseado em enquetes
  • RedMonk Rankings: Combina GitHub e Stack Overflow
  • PYPL: Baseado em pesquisas do Google

Cada metodologia tem suas particularidades e públicos específicos.

Como Desenvolvedores Devem se Preparar Para Esta Nova Era

Para Desenvolvedores Iniciantes

Aprenda na seguinte ordem:

  1. Fundamentos de programação: Lógica, algoritmos, estruturas de dados
  2. JavaScript básico: Antes de mergulhar em TypeScript
  3. TypeScript desde cedo: Não espere “dominar” JavaScript primeiro
  4. Framework moderno: React, Vue ou Angular com TypeScript
  5. Uso de IA: Ferramentas como Copilot desde o início

Armadilhas a evitar:

  • Dependência excessiva de IA sem entender conceitos
  • Pular fundamentos em favor de frameworks
  • Não aprender a ler documentação
  • Ignorar boas práticas de versionamento (Git)

Para Desenvolvedores Intermediários

Prioridades de upskilling:

  1. Migração para TypeScript: Se ainda usa JavaScript puro
  2. Patterns avançados: Design patterns, arquitetura
  3. Domínio de IA tools: Maximizar produtividade
  4. Testes e qualidade: TDD, E2E testing
  5. DevOps básico: CI/CD, containers

Desenvolva portfolio que demonstre:

  • Projetos TypeScript complexos
  • Contribuições open source relevantes
  • Arquitetura bem documentada
  • Uso eficiente de IA para acelerar desenvolvimento

Para Desenvolvedores Seniores

Foco estratégico:

  1. Liderança técnica: Guiar times em transições
  2. Arquitetura de sistemas: Design de alto nível
  3. Mentoria: Ensinar uso responsável de IA
  4. Avaliação de tecnologias: Decidir stack para projetos
  5. Segurança e compliance: Garantir padrões

Habilidades diferenciadas:

  • Capacidade de questionar sugestões da IA
  • Visão de produto e negócios
  • Comunicação com stakeholders não-técnicos
  • Gestão de dívida técnica
  • Tomada de decisões arquiteturais

Recursos Para Aprender TypeScript Eficientemente

Documentação e Cursos Oficiais

Recursos gratuitos essenciais:

  • TypeScript Handbook: Documentação oficial completa
  • TypeScript Playground: Ambiente para experimentar online
  • DefinitelyTyped: Repositório de tipos para bibliotecas JavaScript
  • freeCodeCamp TypeScript: Curso gratuito completo

Cursos pagos recomendados:

  • TypeScript Masterclass: Plataformas como Udemy
  • Frontend Masters: TypeScript paths
  • Pluralsight: Learning paths específicos

Projetos Práticos Para Aprender

Iniciante:

  1. Conversor de JavaScript para TypeScript de projetos pessoais
  2. API RESTful com Express e TypeScript
  3. Todo app com React e TypeScript

Intermediário: 4. Sistema de autenticação completo 5. Dashboard com gráficos e dados em tempo real 6. CLI tool com Node.js e TypeScript

Avançado: 7. Sistema de design components 8. Biblioteca open source com TypeScript 9. Aplicação full-stack type-safe (tRPC, Prisma)

Ferramentas e Ecossistema TypeScript em 2025

Ferramentas de Build e Bundlers

Estado da arte:

  • Vite: Build tool rápido, preferido pela comunidade
  • Turbopack: Da Vercel, ainda em desenvolvimento
  • esbuild: Extremamente rápido, escrito em Go
  • swc: Alternativa ao Babel, escrito em Rust
  • tsup: Wrapper simples do esbuild para bibliotecas

Frameworks Full-Stack com TypeScript

End-to-end type safety:

  • Next.js 15: React full-stack framework líder
  • Remix: Foco em web fundamentals
  • SvelteKit: Alternativa leve e rápida
  • Astro: Para content-driven sites
  • tRPC: Type-safe APIs sem schema separado

Ferramentas de IA Para TypeScript

Assistentes especializados:

  • GitHub Copilot: Líder de mercado
  • Cursor: Editor com IA profundamente integrada
  • Codeium: Alternativa gratuita ao Copilot
  • Tabnine: Foco em empresas e privacidade
  • AWS CodeWhisperer: Integrado com AWS

Impacto Ambiental e Sustentabilidade

Um aspecto menos discutido mas relevante: o consumo energético da IA.

Pegada de Carbono do Desenvolvimento Assistido por IA

Considerações:

  • Treinamento de modelos consome energia significativa
  • Inferência (uso) tem impacto menor mas constante
  • Aumento de código pode levar a sistemas mais pesados
  • Trade-off: produtividade vs. sustentabilidade

Boas práticas:

  • Usar modelos locais quando possível
  • Evitar queries desnecessárias a APIs de IA
  • Otimizar código gerado, não apenas aceitar
  • Considerar carbon-aware computing

Conclusão: Uma Era de Transformação Acelerada

A ascensão do TypeScript ao topo do GitHub não é apenas sobre uma linguagem superando outra — é um sintoma de mudanças profundas na engenharia de software. A IA agora influencia não apenas a velocidade com que o código é escrito, mas quais linguagens e ferramentas os desenvolvedores escolhem.

Principais Lições do Octoverse 2025

  1. Tipagem é o futuro: Linguagens tipadas facilitam desenvolvimento assistido por IA
  2. IA é catalisador de crescimento: Não substitui desenvolvedores, multiplica capacidade
  3. Comunidade está crescendo: 180 milhões+ desenvolvedores no GitHub
  4. Open source está mais forte: Recorde de contribuições e repositórios
  5. Agentes de IA apenas começaram: Próximos anos trarão mudanças ainda maiores

O Que Isso Significa Para Você

Se você é desenvolvedor:

  • Considere fortemente adotar TypeScript se ainda não o fez
  • Integre ferramentas de IA ao seu workflow diário
  • Foque em habilidades que complementam IA, não competem
  • Continue aprendendo — a única constante é a mudança

Se você contrata desenvolvedores:

  • Priorize candidatos com experiência em TypeScript
  • Valorize capacidade de aprender sobre conhecimento específico
  • Invista em ferramentas de IA para sua equipe
  • Promova cultura de experimentação e adaptação

Se você lidera projetos:

  • Avalie migração de projetos JavaScript legados
  • Implemente IA de forma gradual e medida
  • Mantenha foco em qualidade, não apenas velocidade
  • Desenvolva processos de revisão adequados para código gerado por IA

Olhando Para o Futuro

“Estamos apenas começando e esperamos atividade muito maior nos próximos meses e anos”, afirma o GitHub. A combinação de linguagens tipadas, ferramentas de IA cada vez mais sofisticadas e uma comunidade global em expansão promete uma década de inovação sem precedentes no desenvolvimento de software.

O TypeScript pode estar no topo agora, mas a verdadeira história é maior: estamos testemunhando a transformação fundamental de como software é criado, mantido e evoluído. Aqueles que abraçam essas mudanças — com pensamento crítico, curiosidade e compromisso com qualidade — estarão melhor posicionados para prosperar nesta nova era.



Última atualização: Baseado no relatório GitHub Octoverse 2025 (período: setembro 2024 – agosto 2025)

9 Projetos Open Source de IA e MCP para Turbinar a Produtividade do Dev

0
9 Projetos Open Source de IA e MCP para Revolucionar sua Produtividade no VS Code e GitHub Copilot
9 Projetos Open Source de IA e MCP para Revolucionar sua Produtividade no VS Code e GitHub Copilot

As equipes do GitHub Copilot e VS Code, juntamente com o Microsoft Open Source Program Office (OSPO), patrocinaram estes nove projetos open source de MCP que fornecem novos frameworks, ferramentas e assistentes para desbloquear fluxos de trabalho nativos de IA, ferramentas agentic e inovação.

Com o surgimento e ascensão do Model Context Protocol (MCP), os desenvolvedores estão descobrindo maneiras revolucionárias para que a IA e os agentes interajam com ferramentas, bases de código e até navegadores.

Construindo sobre a tecnologia principal, estamos vendo projetos, como extensões de navegador e ferramentas dentro de editores de código, habilitando fluxos de trabalho nativos de IA e desbloqueando uma nova categoria de ferramentas agentic: ecossistemas inovadores e novos projetos focados em capacidades alimentadas por MCP estão mudando a forma como trabalhamos.

Em parceria com o Microsoft Open Source Program Office (OSPO), as equipes do GitHub Copilot e VS Code patrocinaram nove projetos para acelerar a inovação, segurança e sustentabilidade no open source. Abaixo, você encontrará os projetos e os três temas principais que estamos vendo em seu trabalho.

Integrações de framework e plataforma: Integrações de ecossistema para casos de uso do mundo real

Esses projetos integram capacidades de MCP em frameworks e ecossistemas populares para ferramentas nativas de IA, ajudam o MCP com plataformas amplamente usadas e permitem que agentes interajam com aplicativos e fluxos de trabalho do mundo real:

  • fastapi_mcp: Exponha endpoints FastAPI seguros como ferramentas MCP com configuração mínima, autenticação e configuração limitada — tudo com uma infraestrutura unificada.
  • nuxt-mcp: Ferramentas de desenvolvedor Nuxt para inspeção de rotas e depuração SSR facilitam para sua equipe fazer com que os modelos entendam melhor seu aplicativo Vite/Nuxt.
  • unity-mcp: Unity MCP permite que você se conecte com APIs de motor de jogo para desenvolvimento de jogos assistido por IA e dá ferramentas de IA para gerenciar ativos, controlar cenas, editar scripts e automatizar tarefas dentro do Unity.

Experiência do desenvolvedor e codificação aprimorada por IA: Produtividade do desenvolvedor com prioridade em IA

Esses projetos capacitam IA, LLMs e agentes a atuar como assistentes inteligentes de IDE e editores de código, melhorando fluxos de trabalho de desenvolvedores, compreensão semântica de código e execução segura de código.

  • context7: Context7 puxa documentação atualizada e específica de versão e exemplos de código diretamente do seu código e os conecta diretamente aos prompts de IA e contexto de LLM.
  • serena: Edição e recuperação semântica de código para toolkit de codificação impulsionada por agente, fornecendo capacidades de recuperação e edição semântica.
  • Peekaboo: Análise de código Swift que transforma o que está na sua tela em contexto acionável de IA para criar automação completa de GUI, e pode ser usado para assistentes de IA.
  • coderunner: Coderunner transforma LLMs em um parceiro de execução local instantâneo que escreve e executa código em um sandbox pré-configurado na sua máquina, instala ferramentas automaticamente, lê arquivos diretamente e retorna saídas e artefatos gerados.

Automação, testes e orquestração: Confiabilidade e garantia de qualidade para infraestrutura MCP

Esses projetos ajudam a estender a infraestrutura MCP para ferramentas de grau de produção para pipelines de automação e fornecem testes robustos e ferramentas de depuração. Isso ajuda a garantir que você possa executar MCP em escala.

Avaliação de servidor MCP:

  • n8n-mcp: n8n-MCP é uma plataforma ultra-otimizada que aprimora a automação de fluxos de trabalho do n8n, simplificando a criação e orquestração de fluxos de trabalho. Ele integra modelos de IA para ajudar os usuários a entenderem e trabalharem melhor com nós do n8n.
  • inspector: Uma ferramenta para testar e depurar servidores MCP inspecionando handshake de protocolo, ferramentas, recursos, prompts e fluxos OAuth. Oferece um playground LLM integrado e permite executar simulações de avaliação para capturar regressões de segurança ou desempenho.

Fluxos de trabalho de IA e produtividade do desenvolvedor agentic com MCP e open source

Os desenvolvedores estão construindo em velocidade incrível com o poder da IA e MCP. Esses projetos representam algumas das ferramentas de desenvolvedor de crescimento mais rápido dentro do ecossistema e comunidade MCP. São ferramentas que os desenvolvedores usam e se importam. As equipes do GitHub Copilot e VS Code estão animadas para patrocinar mais projetos open source que impulsionem novas inovações como MCP para desenvolvimento nativo de agentes.

Inscreva-se no GitHub Sponsors hoje para se juntar a nós no patrocínio desses projetos (e mais!) e ajudar a apoiar o ecossistema MCP. Você também pode começar a explorar MCP com VS Code e GitHub Copilot hoje!

Se inscreva em nossa newsletter no LinkedIn para mais novidades sobre desenvolvimento e, inclusive, desenvolvimento com IA. É grátis, aqui.

Dicas Extras para Acelerar a Produtividade do Desenvolvedor com IA e Projetos MCP Open Source

Aqui vão algumas dicas adicionais baseadas em pesquisas recentes e integrações práticas com MCP, para maximizar o uso de IA e ferramentas open source em fluxos de trabalho de desenvolvimento:

Dicas Gerais de Melhores Práticas com Servidores MCP

  • Mantenha-se no fluxo de trabalho: Delegue tarefas como verificar campos de banco de dados, recursos Azure ou registrar issues no GitHub diretamente do IDE, sem alternar abas.
  • Use consultas em linguagem natural: Descreva ações desejadas de forma conversacional, deixando a IA lidar com a sintaxe exata, como comandos SQL ou CLI.
  • Encadeie servidores MCP: Combine múltiplos servidores para cenários complexos, como criar issues no Azure DevOps para cada linha em uma tabela ou adicionar testes Playwright baseados em issues fechados no GitHub.
  • Aproveite o ecossistema: Integre servidores MCP de parceiros como Figma, Notion, MongoDB ou Zapier para interoperabilidade entre fornecedores.
  • Construa servidores personalizados: Use SDKs como o C# MCP SDK para conectar serviços proprietários e otimizar com modos personalizados do repositório Awesome GitHub Copilot Customizations.

Integrações Específicas com Dynatrace MCP e GitHub Copilot

  • Forneça contexto máximo no IDE: Use prompts em linguagem natural para compartilhar detalhes de ambientes de produção diretamente com o código fonte, como agrupar logs por impacto no cliente.
  • Adote MCP como padrão para integrações: Conecte ferramentas externas para reduzir a carga cognitiva e evitar navegação manual em logs ou dashboards.
  • Shift left em segurança e desempenho: Integre verificações de vulnerabilidades e gargalos cedo no ciclo de vida, perguntando coisas como “Meu uso de CPU está alto?” antes da implantação.
  • Aproveite sugestões de remediação: Após identificar problemas, solicite ideias automáticas de correção e aplique-as no contexto para minimizar incidentes.
  • Verifique builds CI/CD proativamente: Pergunte “O que falhou no último build?” ou “Há regressões de desempenho nesse commit?” para loops de feedback mais rápidos.

Insights de Estudos sobre Impacto da IA na Produtividade

  • Considere o contexto do projeto: Em repositórios open source de alta qualidade com padrões rigorosos (como testes e documentação), ferramentas de IA podem inicialmente desacelerar desenvolvedores experientes em 19%, apesar das percepções subjetivas de aceleração.
  • Otimize prompts e amostragem: Aumente o número de tentativas ou trajetórias de IA para melhorar resultados, e use treinamentos específicos de repositório ou few-shot learning para ganhos de produtividade.
  • Invista em aprendizado com a ferramenta: Efeitos positivos podem surgir após centenas de horas de uso, então pratique consistentemente para maximizar benefícios.
  • Foque em tarefas bem definidas: IA se destaca em tarefas com escopo claro e pontuação algorítmica, em vez de requisitos implícitos de alta qualidade.

Anthropic Lança Claude Skills: para Seus Fluxos de Trabalho

0
Claude Sonnet 4.5: Novo Modelo de IA da Anthropic Revoluciona Programação em 2025
Claude Sonnet 4.5: Novo Modelo de IA da Anthropic Revoluciona Programação em 2025

A Anthropic, empresa líder em inteligência artificial, anunciou recentemente o lançamento do Claude Skills, uma inovação que permite personalizar o assistente de IA Claude para tarefas específicas. Essa nova funcionalidade transforma o Claude em um especialista adaptado às necessidades dos usuários, integrando instruções, scripts e recursos em pastas dedicadas.

O Que São os Claude Skills?

Os Skills são essencialmente pastas que contêm instruções, scripts e recursos que o Claude pode carregar sob demanda. O assistente de IA analisa as tarefas em andamento e acessa apenas os Skills relevantes, garantindo eficiência e velocidade. Isso evita sobrecargas desnecessárias, carregando apenas o mínimo necessário para a execução.

Principais características dos Skills:

  • Componíveis: Podem ser combinados. O Claude identifica automaticamente quais Skills são necessários e coordena seu uso.
  • Portáteis: Usam o mesmo formato em todos os produtos da Anthropic, permitindo criar uma vez e usar em apps, código e API.
  • Eficientes: Carregam apenas o essencial, mantendo o desempenho otimizado.
  • Poderosos: Incluem código executável para tarefas que exigem programação tradicional, superando limitações de geração de tokens.

Pense nos Skills como materiais de onboarding personalizados, que empacotam expertise para tornar o Claude um especialista em áreas como análise de Excel ou adesão a diretrizes de marca da sua organização. Para um mergulho técnico no padrão de design Agent Skills, arquitetura e melhores práticas de desenvolvimento, confira o blog de engenharia da Anthropic.

Integração com Produtos Claude

Os Skills estão disponíveis em todos os produtos da linha Claude, facilitando a adoção em diferentes contextos.

Claude Apps

Disponível para usuários Pro, Max, Team e Enterprise. A Anthropic oferece Skills prontos para tarefas comuns, como criação de documentos, além de exemplos personalizáveis. O Claude invoca Skills automaticamente com base na tarefa, sem necessidade de seleção manual. Você pode até ver os Skills no raciocínio em cadeia do Claude durante o processo.

Criar Skills é simples: Use o Skill “skill-creator” para orientação interativa. O Claude pergunta sobre seu fluxo de trabalho, gera a estrutura de pastas, formata o arquivo SKILL.md e agrupa os recursos necessários – sem edição manual de arquivos.

Ative os Skills nas Configurações. Para usuários Team e Enterprise, os administradores devem habilitar a funcionalidade em toda a organização.

Plataforma de Desenvolvedores Claude (API)

Conhecidos como Agent Skills, eles podem ser adicionados a requisições da Messages API. O novo endpoint /v1/skills permite controle programático sobre versões e gerenciamento de Skills personalizados. Requer o beta da Ferramenta de Execução de Código para um ambiente seguro.

Use Skills criados pela Anthropic para ler e gerar planilhas Excel profissionais com fórmulas, apresentações PowerPoint, documentos Word e PDFs preenchíveis. Desenvolvedores podem criar Skills customizados para casos de uso específicos. Gerencie versões facilmente pelo Claude Console.

Explore a documentação ou a Anthropic Academy para mais detalhes.

Claude Code

Estenda o Claude Code com expertise e fluxos de trabalho da sua equipe. Instale Skills via plugins do marketplace anthropics/skills. O Claude os carrega automaticamente quando relevantes. Compartilhe Skills via controle de versão com sua equipe ou instale manualmente em ~/.claude/skills. O SDK Claude Agent oferece suporte similar para agentes personalizados.

O Futuro dos Skills

A Anthropic planeja simplificar a criação de Skills e melhorar capacidades de implantação em escala empresarial, facilitando a distribuição em equipes. Lembre-se: Essa funcionalidade permite execução de código, então use fontes confiáveis para manter seus dados seguros. Saiba mais sobre segurança nos recursos oficiais.

Com o Claude Skills, a Anthropic reforça sua posição no mercado de IA, oferecendo ferramentas que integram expertise humana à inteligência artificial de forma segura e eficiente. Essa atualização promete revolucionar fluxos de trabalho em empresas e projetos pessoais.

Microsoft lança novas atualizações de IA para o Windows 11

0

Por Reuters – 16 de outubro (Reuters) – A Microsoft (MSFT.O, abre nova aba) na quinta-feira lançou uma série de atualizações de inteligência artificial para o Windows 11 que tornariam seu assistente de IA Copilot mais atraente para os usuários, facilitando a automação de tarefas e a conexão com serviços em diferentes dispositivos.

Os usuários agora podem usar a palavra de ativação “Hey Copilot” para ativar o assistente de IA e executar comandos de voz em um novo recurso opcional em qualquer PC com Windows 11, informou a Microsoft.

Receba um resumo diário de notícias de negócios diretamente em sua caixa de entrada com o boletim de negócios da Reuters. Inscreva-se aqui.

Anúncio · Role para continuar

A empresa também está expandindo o Copilot Vision – que pode analisar conteúdo nas telas dos usuários e responder perguntas relacionadas – para todos os mercados onde o Copilot é oferecido.

A Microsoft disse que também lançará um recurso para os Windows Insiders que permitirá aos usuários interagir com o Vision por meio de texto, e não apenas por voz.

A empresa tem corrido para aumentar a adoção e o uso do Copilot, para competir melhor com gigantes da tecnologia como Google (GOOGL.O, abre nova aba) e Meta (META.O, abre nova aba), que promoveram seus próprios assistentes de IA por meio de recursos em dispositivos, aplicativos e navegadores.

A atualização da Microsoft também inclui um modo experimental ‘Copilot Actions’ que permite ao assistente de IA realizar tarefas do mundo real para os usuários — como reservar mesas em restaurantes ou pedir mantimentos — diretamente do desktop.A ferramenta expande uma capacidade semelhante anunciada pela primeira vez para o navegador web em maio.

A Microsoft disse que os agentes começarão com permissões limitadas e só obterão acesso aos recursos que um usuário fornecer explicitamente.

A empresa também lançou seu ‘Gaming Copilot’ integrado aos consoles Xbox Ally na quinta-feira, o que permite aos jogadores interagir com o assistente de IA para dicas em tempo real, recomendações e suporte.

“Estamos no limiar da próxima evolução, onde a IA acontece, não apenas naquele chatbot, mas é naturalmente integrada nas centenas de milhões de experiências que as pessoas usam todos os dias”, disse Yusuf Mehdi, diretor de marketing de consumo da Microsoft.

Claude Sonnet 4.5: Mais Avançado para Programação e Automação

0
Claude Sonnet 4.5: Novo Modelo de IA da Anthropic Revoluciona Programação em 2025
Claude Sonnet 4.5: Novo Modelo de IA da Anthropic Revoluciona Programação em 2025

A Anthropic acaba de lançar o Claude Sonnet 4.5, estabelecendo um novo padrão na indústria de inteligência artificial. Este modelo representa um salto significativo em capacidades de codificação, raciocínio e automação, posicionando-se como o melhor modelo de programação disponível no mercado atual.

O Que Torna o Claude Sonnet 4.5 Especial?

O novo modelo da Anthropic se destaca em três áreas fundamentais: é o melhor modelo de codificação do mundo, o mais forte para construir agentes complexos e o mais eficiente no uso de computadores. Além disso, apresenta ganhos substanciais em raciocínio matemático e lógico.

A capacidade de entender e manipular código é essencial no mundo moderno, já que praticamente todas as aplicações, planilhas e ferramentas de software que utilizamos diariamente dependem dessa tecnologia. O Claude Sonnet 4.5 torna possível não apenas usar essas ferramentas, mas também raciocinar através de problemas complexos.

Desempenho Excepcional em Benchmarks

Os números impressionam: no SWE-bench Verified, uma avaliação que mede habilidades reais de codificação de software, o Claude Sonnet 4.5 alcançou resultados de ponta, liderando o ranking com 77,2% de precisão. Em testes práticos, o modelo demonstrou capacidade de manter o foco por mais de 30 horas em tarefas complexas e de múltiplas etapas.

No OSWorld, benchmark que testa modelos de IA em tarefas reais de computador, o Sonnet 4.5 agora lidera com 61,4%. Apenas quatro meses atrás, o Sonnet 4 mantinha a liderança com 42,2%, mostrando uma evolução rápida e consistente.

O modelo também apresenta melhorias impressionantes em diversas avaliações, incluindo raciocínio e matemática. Especialistas em finanças, direito, medicina e áreas STEM constataram que o Sonnet 4.5 demonstra conhecimento específico de domínio e raciocínio dramaticamente melhores em comparação com modelos anteriores, incluindo o Opus 4.1.

Integração e Recursos Expandidos

Juntamente com o lançamento do Claude Sonnet 4.5, a Anthropic implementou uma série de atualizações importantes em seus produtos:

Claude Code: Agora inclui checkpoints, um dos recursos mais solicitados, que salvam o progresso e permitem reverter instantaneamente para um estado anterior. A interface do terminal foi renovada e uma extensão nativa para VS Code está disponível.

API do Claude: Ganhou novos recursos de edição de contexto e ferramentas de memória que permitem aos agentes executar por períodos ainda mais longos e lidar com complexidade ainda maior.

Aplicativos Claude: A execução de código e a criação de arquivos (planilhas, apresentações e documentos) foram incorporadas diretamente às conversas.

Claude para Chrome: A extensão foi disponibilizada para usuários Max que entraram na lista de espera no mês anterior, colocando as capacidades aprimoradas de uso de computador em prática diretamente no navegador.

SDK de Agentes Claude: Democratizando a Criação de IA

Um dos anúncios mais significativos é o lançamento do Claude Agent SDK, que fornece aos desenvolvedores os mesmos blocos de construção que a Anthropic usa internamente para criar o Claude Code. Essa infraestrutura, que alimenta os produtos de ponta da empresa, agora está disponível para todos os desenvolvedores construírem suas próprias soluções.

Durante mais de seis meses desenvolvendo o Claude Code, a Anthropic resolveu problemas complexos: como os agentes devem gerenciar memória em tarefas de longa duração, como lidar com sistemas de permissão que equilibram autonomia com controle do usuário e como coordenar subagentes trabalhando em direção a um objetivo compartilhado.

Alinhamento e Segurança Aprimorados

O Claude Sonnet 4.5 não é apenas o modelo mais capaz da Anthropic, mas também o modelo de fronteira mais alinhado já lançado. As capacidades aprimoradas do Claude e o extenso treinamento de segurança permitiram melhorar substancialmente o comportamento do modelo, reduzindo comportamentos preocupantes como servilismo, engano, busca de poder e tendência a encorajar pensamento delirante.

Para as capacidades agênticas e de uso de computador do modelo, a empresa fez progressos consideráveis na defesa contra ataques de injeção de prompt, um dos riscos mais sérios para usuários dessas capacidades.

O modelo está sendo lançado sob as proteções de Nível 3 de Segurança em IA (ASL-3), conforme a estrutura da Anthropic que combina capacidades do modelo com salvaguardas apropriadas. Essas proteções incluem filtros chamados classificadores que visam detectar entradas e saídas potencialmente perigosas.

Feedback de Empresas Líderes

Empresas de tecnologia de ponta já estão experimentando os benefícios do Claude Sonnet 4.5:

  • Cursor: Relata desempenho de codificação de ponta, com melhorias significativas em tarefas de longo prazo.
  • GitHub: Observou que o Sonnet 4.5 amplifica os pontos fortes do Copilot, com melhorias significativas em raciocínio de múltiplas etapas e compreensão de código.
  • HackerOne: Reduziu o tempo médio de análise de vulnerabilidades para seus agentes de segurança Hai em 44%, melhorando a precisão em 25%.
  • Devin: Experimentou um aumento de 18% no desempenho de planejamento e 12% nas pontuações de avaliação completa, o maior salto desde o lançamento do Claude Sonnet 3.6.
  • Canva: Observou ganhos impressionantes nas tarefas mais complexas de contexto longo, desde engenharia até recursos do produto e pesquisa, ajudando mais de 240 milhões de usuários.

Disponibilidade e Preços

O Claude Sonnet 4.5 está disponível globalmente a partir de hoje. Desenvolvedores podem acessá-lo simplesmente usando o identificador claude-sonnet-4-5 via API do Claude. O preço permanece o mesmo do Claude Sonnet 4, a US$ 3/US$ 15 por milhão de tokens.

Para uso nos aplicativos, a execução de código e criação de arquivos estão disponíveis em todos os planos pagos. As atualizações do Claude Code estão disponíveis para todos os usuários, enquanto as atualizações da Plataforma de Desenvolvedor Claude, incluindo o SDK de Agentes, estão disponíveis para todos os desenvolvedores.

Imagine with Claude: Prévia de Pesquisa

Como bônus, a Anthropic está lançando uma prévia temporária de pesquisa chamada “Imagine with Claude”. Neste experimento, o Claude gera software em tempo real, sem funcionalidade predeterminada ou código pré-escrito. É uma demonstração divertida mostrando o que o Claude Sonnet 4.5 pode fazer quando você combina um modelo capaz com a infraestrutura certa.

O “Imagine with Claude” está disponível para assinantes Max pelos próximos cinco dias no site claude.ai/imagine.

Conclusão

O Claude Sonnet 4.5 representa um marco significativo no desenvolvimento de inteligência artificial, combinando capacidades excepcionais de codificação, raciocínio aprimorado e alinhamento robusto de segurança. Com sua disponibilidade imediata e preço competitivo, o modelo está pronto para transformar a forma como desenvolvedores e empresas abordam problemas complexos de software.

A recomendação da Anthropic é clara: atualizar para o Claude Sonnet 4.5 para todos os usos. Seja por meio dos aplicativos, da API ou do Claude Code, o Sonnet 4.5 é uma substituição direta que oferece desempenho muito superior pelo mesmo preço.


Para mais informações técnicas detalhadas e resultados de avaliação completos, consulte o system card oficial, a página do modelo e a documentação no site da Anthropic.

AP2 do Google: Desenvolva Pagamentos para agentes de IA

0
Descubra o AP2 do Google, um protocolo aberto que revoluciona pagamentos agentivos com IA.
Descubra o AP2 do Google, um protocolo aberto que revoluciona pagamentos agentivos com IA.

O Google lançou o Agent Payments Protocol (AP2), um protocolo aberto projetado para permitir que agentes de inteligência artificial, baseados em qualquer modelo de linguagem de grande escala, realizem compras online de forma segura. Esse protocolo inovador aborda desafios críticos em pagamentos agentivos, como segurança e responsabilidade, ao oferecer um framework padronizado e flexível para transações automatizadas. Integrado a protocolos como o A2A do Google e o MCP da Anthropic, o AP2 suporta diversos métodos de pagamento, incluindo cartões de crédito, transferências bancárias, pagamentos digitais e criptomoedas. Este artigo explora como o AP2 funciona, sua importância e seu potencial para transformar o comércio eletrônico.

Como o AP2 Funciona

O AP2 utiliza contratos assinados criptograficamente, chamados mandatos, para garantir transações seguras e responsáveis. Esses mandatos mitigam riscos como fraudes e erros, documentando claramente os termos da compra, sua execução e a autorização do pagamento. O processo envolve três mandatos principais:

  1. Mandato de Intenção: Este mandato define as regras para a compra, como limites de preço, prazos e atributos do item. Por exemplo, um usuário pode instruir um agente de IA a “comprar tênis [marca e modelo] quando entrarem em promoção”. O agente solicita que o usuário especifique detalhes como tamanho, cor e preço máximo, criando um mandato de intenção autorizado em tempo real ou previamente.
  2. Mandato de Carrinho: Este contrato detalha o conteúdo do carrinho de compras virtual, incluindo descrições dos itens, preços e termos do acordo, garantindo clareza do lado do vendedor.
  3. Mandato de Pagamento: Este mandato informa à rede de pagamento (composta por instituições financeiras e processadores de pagamento) que a transação foi autorizada pelo usuário ou seu agente, permitindo a transferência segura de fundos.

Se uma transação for fraudulenta ou incorreta, o processador de pagamento pode consultar esses mandatos para determinar a responsabilidade, aumentando a confiança nos sistemas agentivos.

Contexto

Várias empresas têm experimentado pagamentos agentivos, com resultados variados. Por exemplo, no último ano, a Stripe lançou um toolkit de pagamentos agentivos que emite cartões de débito descartáveis para cada compra, reduzindo riscos. No entanto, a abordagem da Stripe era limitada ao seu sistema de pagamento, modelos específicos e frameworks agentivos. Em contrapartida, o AP2 do Google é mais abrangente, lançando com mais de 60 parceiros, incluindo processadores de pagamento, instituições financeiras e gigantes de software. Essa ampla colaboração aumenta sua interoperabilidade e potencial de adoção em diversas plataformas.

Por que Isso Importa

O AP2 possibilita o comércio automatizado impulsionado por agentes, permitindo que agentes de IA atuem em nome de compradores e vendedores de maneira segura e padronizada. Por exemplo, um usuário pode solicitar a um agente que reserve uma viagem dentro de um orçamento e localização específicos. O agente pode interagir com agentes de vários vendedores para montar pacotes de viagem personalizados, apresentando opções ao usuário ou selecionando autonomamente o melhor. Esse processo simplificado beneficia compradores, que obtêm resultados personalizados, e vendedores, que concretizam vendas valiosas com menos atrito.

A flexibilidade do protocolo suporta uma ampla gama de casos de uso, desde comércio eletrônico até planejamento de viagens, enquanto suas medidas de segurança reduzem os riscos associados a transações autônomas. Ao promover um ecossistema onde qualquer participante pode realizar vendas automatizadas, o AP2 abre caminho para uma nova era de comércio impulsionado por IA.

O Cenário Mais Amplo

O crescimento dos pagamentos agentivos reflete uma tendência mais ampla em IA, onde sistemas autônomos estão cada vez mais integrados às tarefas do dia a dia. Assim como a internet transformou agentes de viagem em papéis mais dinâmicos e baseados em tecnologia, o AP2 capacita agentes de IA a lidar com transações complexas com mínima intervenção humana. Essa evolução pode redefinir como compramos, reservamos serviços e interagimos com mercados digitais.

Conclusão

O AP2 do Google é um passo significativo para possibilitar pagamentos agentivos seguros, escaláveis e flexíveis. Ao abordar preocupações com segurança e responsabilidade por meio de mandatos assinados criptograficamente, o AP2 capacita desenvolvedores a criar soluções inovadoras de comércio impulsionadas por IA. Com a adoção crescente de sua extensa rede de parceiros, o protocolo tem o potencial de revolucionar como as transações são realizadas online, tornando-as mais eficientes e amigáveis ao usuário.

Curso gratuito de GitHub Copilot para devs e estudantes

0

A Microsoft abriu as inscrições para o primeiro Bootcamp de GitHub Copilot. O projeto busca capacitar programadores e estudantes ao uso do assistente virtual de programação integrado ao Visual Studio Code com direito a certificado Microsoft Learn.

O curso é composto por uma série de quatro módulos: Engenharia de Prompt com o GitHub Copilot; Construindo uma Aplicação Web de IA com Python e Flask; Criação de Testes Unitários e Documentação com GitHub Copilot; e Otimização de Fluxo de Trabalho com GitHub Copilot.

Bootcamp de GitHub Copilot é parte do Learn Live, programa internacional da Microsoft. As aulas acontecem ao vivo, mas ficam disponíveis para visualização sob demanda posteriormente.

Segundo a empresa, mais de 150 mil pessoas foram capacitadas na América Latina dentro do programa Learn Live em 2024.

Abaixo, confira detalhes sobre as sessões do Bootcamp GitHub Copilot:

As inscrições acontecem no site oficial da Microsoft para o GitHub Copilot Bootcam Brasil. Na página, também estão dispostas informações sobre o projeto, horário das aulas e nome dos profissionais que guiarão as sessões. As inscrições estão abertas para todos até 4 de fevereiro.

GitHub Copilot foi inaugurado em junho de 2022. Inicialmente, o assistente de programação com IA era exclusivo para usuários pagantes, mas a ferramenta recebeu uma versão gratuita em dezembro de 2024. Agora, qualquer desenvolvedor e estudante interessado em conhecer e experimentar o recurso pode experimentá-lo (com algumas restrições).

Santander e a Alura oferecem 60.000 bolsas em carreira de tecnologia

0
Quer dar um salto na sua carreira? O Santander Imersão Digital está com inscrições abertas para quatro trilhas gratuitas e 100% online em Análise de Dados com IA, UX Design, Mobile e DevOps.

Quer dar um salto na sua carreira? O Santander Imersão Digital está com inscrições abertas para quatro trilhas gratuitas e 100% online em Análise de Dados com IA, UX Design, Mobile e DevOps.

São 60.000 bolsas de estudo com certificado, pensadas para quem está começando ou quer crescer no mercado de tecnologia com as habilidades mais procuradas pelas empresas.

Domine ferramentas como Excel, PowerBI e IA para transformar dados em decisões inteligentes. Aprenda a criar experiências digitais que colocam o usuário no centro. Construa seus primeiros aplicativos mobile. Ou dê os primeiros passos em fundamentos da programação.

Os 350 melhores participantes que concluírem a trilha escolhida com excelência ganharão também uma imersão premium de 16 semanas, com:

·        Acesso completo à plataforma Alura

·        Plano de estudos aprofundado

·        Projetos práticos com feedback

·        Code review personalizado

·        Lives exclusivas

Ementas – Santander Imersão Digital_pdf

Mais informações e inscrição: https://app.santanderopenacademy.com/pt/program/santander-imersao-digital

Google Tradutor desafia o Duolingo com novas ferramentas de aprendizagem de idiomas

0

O Google está lançando um novo recurso experimental com tecnologia de IA no Google Tradutor, projetado para ajudar as pessoas a praticar e aprender um novo idioma, anunciou a empresa na terça-feira. O Tradutor também está ganhando novos recursos em tempo real para facilitar a comunicação em tempo real com uma pessoa que fala um idioma diferente.

O novo recurso de prática de idiomas foi desenvolvido tanto para iniciantes que estão começando a aprender habilidades de conversação quanto para falantes avançados que buscam aprimorar seu vocabulário, afirma a empresa. Para isso, a empresa cria sessões personalizadas de prática de audição e fala que se adaptam ao nível de habilidade e aos objetivos de aprendizagem específicos de cada usuário.

Com esse novo recurso de prática de idiomas, o Google está competindo com o Duolingo , o popular aplicativo de aprendizagem de idiomas que usa uma abordagem gamificada para ajudar os usuários a praticar mais de 40 idiomas.

Para acessar o recurso, selecione a opção “praticar” no aplicativo Google Tradutor. A partir daí, você pode definir o nível de habilidade e as metas. O Google Tradutor então gera cenários personalizados nos quais você pode ouvir conversas e tocar nas palavras que ouve para aumentar a compreensão, ou praticar a fala. Os exercícios acompanham o progresso diário dos usuários, segundo o Google.

A experiência beta está sendo lançada no aplicativo Google Tradutor para Android e iOS a partir de terça-feira. O recurso está disponível primeiro para falantes de inglês que praticam espanhol e francês, bem como para falantes de espanhol, francês e português que praticam inglês.

O Google também está introduzindo a capacidade de os usuários terem conversas com traduções de áudio e na tela por meio do aplicativo Tradutor.

“Com base em nossa experiência existente de conversação ao vivo, nossos modelos avançados de IA agora estão tornando ainda mais fácil ter uma conversa ao vivo em mais de 70 idiomas — incluindo árabe, francês, hindi, coreano, espanhol e tâmil”, escreveu o Google em uma postagem de blog.

ocê pode tocar na opção “Tradução ao vivo” no app Tradutor e selecionar o idioma que deseja traduzir simplesmente falando. Você ouvirá a tradução em voz alta, juntamente com uma transcrição da sua conversa nos dois idiomas. O app traduzirá e alternará entre os dois idiomas que você e a outra pessoa estão falando.

O Google observa que o recurso pode identificar pausas, sotaques e entonações para permitir uma conversa que soe natural.

O recurso usa os modelos de reconhecimento de voz e fala do Google para isolar sons, o que significa que você poderá usar os recursos ao vivo em um restaurante barulhento ou em um aeroporto movimentado.

Esses recursos de tradução ao vivo estarão disponíveis a partir de terça-feira para usuários nos EUA, Índia e México.

“Essas atualizações são possíveis graças aos avanços em IA e aprendizado de máquina”, escreveu o Google em sua publicação no blog. “À medida que continuamos a expandir os limites do processamento e da compreensão da linguagem, conseguimos atender a uma gama mais ampla de idiomas e melhorar a qualidade e a velocidade das traduções. E com nossos modelos Gemini no Google Translate, conseguimos dar grandes passos na qualidade da tradução, na tradução multimodal e nos recursos de conversão de texto em fala (TTS).”

A peça que faltava para agentes de IA autônomos.

0
Arquiteturas de GraphRAG
Descubra como o GraphRAG integra grafos de conhecimento e LLMs para criar respostas mais precisas, relevantes e contextuais, superando limitações do RAG tradicional e transformando agentes de IA autônomos.

Este artigo foi originalmente publicado em: https://www.linkedin.com/newsletters/ezine-dev-ramos-da-inform%25C3%25A1tica-6947960536550526976/

A inteligência artificial tem avançado a passos largos, e com ela, a necessidade de sistemas que possam não apenas processar informações, mas também compreendê-las e raciocinar sobre elas de forma mais sofisticada. Neste contexto, o Retrieval Augmented Generation (RAG) emergiu como uma técnica promissora para aprimorar a capacidade de Large Language Models (LLMs) de gerar respostas mais precisas e contextualmente relevantes. No entanto, o RAG tradicional, que se baseia principalmente em vetores para busca de informações, possui suas limitações, especialmente quando se trata de lidar com dados complexos e interconectados. É aqui que o GraphRAG, ou RAG baseado em grafos, se destaca como uma evolução natural, integrando o poder dos grafos de conhecimento (KGs) e bancos de dados de grafos com os LLMs.

Este artigo explora os padrões de design, desafios e recomendações para a implementação eficaz do GraphRAG, com base em análises de conteúdo relevante e informações extraídas de documentos e artigos especializados.

O que é GraphRAG?

GraphRAG é uma abordagem que aprimora o RAG tradicional ao incorporar grafos de conhecimento ou bancos de dados de grafos. Ele aproveita a natureza estruturada dos bancos de dados de grafos para organizar dados como nós e relacionamentos, permitindo uma recuperação mais eficiente e precisa de informações relevantes. Essa estruturação fornece um contexto mais rico para os LLMs, resultando em respostas mais precisas, contextualmente conscientes e relevantes, especialmente para consultas complexas que exigem uma compreensão holística de conceitos semânticos resumidos em grandes coleções de dados ou até mesmo em documentos únicos e extensos.

Enquanto os métodos convencionais de busca vetorial se concentram em dados não estruturados usando vetores de alta dimensão, o GraphRAG utiliza grafos de conhecimento para permitir uma compreensão e recuperação mais nuançada de informações interconectadas e heterogêneas. Essa abordagem estruturada aprimora o contexto e a profundidade das informações recuperadas, levando a respostas mais precisas e relevantes às consultas dos usuários, especialmente para tópicos complexos ou específicos de domínio.

Arquiteturas de GraphRAG

A implementação do GraphRAG apresenta desafios únicos devido à falta de uma abordagem padronizada para integrar grafos de conhecimento na pipeline do RAG. No entanto, diversas arquiteturas comuns têm sido exploradas:

Conteúdo do artigo

1. Grafo de Conhecimento com Agrupamento Semântico

Nesta arquitetura, o grafo de conhecimento fornece uma representação estruturada dos dados e permite o raciocínio sobre todo o conjunto de dados. A pipeline começa com uma consulta do usuário, seguida pelo uso do grafo de conhecimento e aprendizado de máquina de grafo para buscar informações relevantes. As informações recuperadas são então organizadas em clusters semânticos através de agrupamento baseado em grafo. Essas informações agrupadas enriquecem os dados no contexto do LLM, permitindo que o LLM gere uma resposta usando esse contexto enriquecido. A resposta final inclui referências ao grafo de conhecimento, tornando-a adequada para análise de dados, descoberta de conhecimento e aplicações de pesquisa.

2. Integração de Grafo de Conhecimento e Banco de Dados Vetorial

Esta abordagem utiliza tanto um grafo de conhecimento quanto um banco de dados vetorial para coletar informações relevantes. O grafo de conhecimento é construído de forma a capturar os relacionamentos entre os chunks de vetores, incluindo hierarquias de documentos. O grafo de conhecimento fornece informações estruturadas de entidades na vizinhança dos chunks recuperados da busca vetorial, enriquecendo o prompt com contexto adicional valioso. Este prompt enriquecido é alimentado no LLM para processamento, e o LLM gera uma resposta. Finalmente, a resposta gerada é retornada ao usuário. Esta arquitetura é adequada para casos de uso como suporte ao cliente, busca semântica e recomendações personalizadas.

3. Pipeline de Resposta a Perguntas Aprimorada por Grafo de Conhecimento

Nesta arquitetura, o grafo de conhecimento é usado a jusante da recuperação vetorial para aprimorar a resposta com fatos adicionais. A pipeline começa com o usuário fornecendo uma consulta, seguida pelo cálculo do embedding da consulta. Uma busca de similaridade vetorial é então conduzida no índice vetorial para identificar entidades relevantes do grafo de conhecimento. O sistema recupera os nós e propriedades relevantes do banco de dados de grafo e (se encontrados) executa consultas Cypher para recuperar informações adicionais sobre essas entidades. As informações recuperadas são agregadas para formar um contexto abrangente, que é passado para o LLM para gerar uma resposta. Esta abordagem é benéfica em ambientes de saúde ou jurídicos, onde uma resposta padrão é sempre incluída junto com a resposta, com base nas entidades na resposta.

4. Recuperação Híbrida Aprimorada por Grafo

Esta arquitetura GraphRAG emprega uma abordagem híbrida que combina busca vetorial, busca por palavra-chave e consultas específicas de grafo para uma recuperação eficiente e precisa de informações relevantes. O termo “híbrido” aqui não se refere apenas à combinação de recuperação baseada em vetor e palavra-chave – ele também inclui uma etapa de recuperação de grafo de conhecimento. A pipeline começa com uma consulta do usuário, seguida pelo processo de recuperação híbrida que integra resultados de buscas de dados não estruturados e buscas de dados de grafo. A recuperação do índice vetorial e de palavra-chave pode ser inicialmente aprimorada por meio de técnicas de reranking ou fusão de classificação. Os resultados de todas as três formas de busca são combinados para criar o contexto para um LLM, cuja resposta gerada é entregue ao usuário. Esta arquitetura é adequada para casos de uso como busca empresarial, recuperação de documentos e descoberta de conhecimento.

5. Aumento e Geração de Consulta Baseados em Grafo de Conhecimento

Esta arquitetura utiliza um grafo de conhecimento antes de realizar a busca vetorial, para percorrer e recuperar nós e arestas relevantes, enriquecendo a janela de contexto do LLM. A primeira etapa é o aumento da consulta, onde a consulta do usuário é processada pelo LLM para extrair entidades e relacionamentos-chave. Uma busca vetorial é realizada nas propriedades dos nós dentro do grafo de conhecimento, para refinar os nós de interesse relevantes. A próxima etapa é a reescrita da consulta, na qual as consultas Cypher são geradas no subgrafo recuperado para refinar ainda mais as informações estruturadas do grafo. Os dados recuperados da travessia do grafo são usados para enriquecer a janela de contexto do LLM. Finalmente, o LLM gera uma resposta com base no contexto enriquecido. Esta arquitetura é adequada para pesquisas de produtos ou geração de relatórios financeiros, onde os relacionamentos entre as entidades são importantes.

Desafios Chave

A construção de um grafo de conhecimento abrangente e preciso exige um profundo entendimento do domínio e experiência em modelagem de grafos, o que é complexo e intensivo em recursos. A automação desse processo com LLMs ainda está em seus estágios iniciais e pode ser difícil e/ou propensa a erros. Garantir a qualidade, relevância e completude dos dados é crucial. Manter um grafo de conhecimento atualizado exige conhecimento especializado, recursos e adaptação constante aos dados em evolução. A integração de dados de múltiplas fontes com diferentes esquemas e níveis de qualidade aumenta a complexidade e o tempo necessário para essa tarefa.

Além disso, o próprio RAG exige experimentos computacionalmente exigentes para identificar estratégias ótimas de extração de informações, chunking, embedding, recuperação e classificação. Experimentos computacionalmente intensivos para explorar diferentes arquiteturas, configurações e parâmetros do GraphRAG também exigem recursos significativos. O aproveitamento de um framework de computação distribuída como o Ray para processamento de dados e computação de embeddings, juntamente com um banco de dados de grafo de alto desempenho e fácil integração como o Kuzu, facilita a experimentação em larga escala e a otimização do sistema.

O Futuro do GraphRAG: Insights e Recomendações

O GraphRAG é uma extensão natural do RAG e veio para ficar. O uso de grafos de conhecimento oferece outra maneira de obter informações estruturadas que podem aprimorar os prompts usados pelo LLM na fase de geração. Aqui estão algumas recomendações para começar a implementar o GraphRAG em sua organização:

•Primeiro, familiarize-se com o RAG “ingênuo” (recuperação vetorial com chunking). Torne-se proficiente em executar experimentos e desenvolver uma estratégia de avaliação (o que é considerado um “bom” resultado em seu domínio?).

•Trabalhe na obtenção das fontes de dados para um grafo de conhecimento, que podem ser dados estruturados existentes ou texto não estruturado que pode ser transformado em um grafo de conhecimento.

•Familiarize-se com bancos de dados de grafos, como ingerir dados neles e como consultá-los (o Kuzu é uma opção fácil de configurar).

Conteúdo do artigo

•Comece com um pequeno grafo de conhecimento e experimente passar os resultados da consulta do grafo como contexto para um LLM, e compare seu desempenho com sua configuração RAG ingênua.

•Não otimize seu grafo de conhecimento muito cedo. Primeiro, defina uma arquitetura GraphRAG que você possa implementar. Você pode começar a melhorar seu KG e modelo de dados assim que tiver toda a sua configuração GraphRAG e pipelines de avaliação em vigor.

•Execute sua pipeline GraphRAG de ponta a ponta e convença-se de que os resultados são realmente melhores do que as abordagens somente vetoriais ou somente grafos.

•Não tente construir o aplicativo GraphRAG perfeito de imediato. Começar com um design mais simples ajuda a quantificar melhor os resultados da recuperação em relação a uma linha de base, e você pode construir a partir daí adicionando roteadores e agentes mais elaborados.

•À medida que sua iniciativa GraphRAG evolui e suas necessidades crescem, você pode se encontrar precisando de arquiteturas mais complexas que possam lidar com maiores volumes de dados. Para garantir uma transição suave, é sensato escolher ferramentas que possam escalar junto com seu projeto. As ferramentas devem ser flexíveis e econômicas para acomodar aprimoramentos em sua configuração e design do GraphRAG, permitindo que você adapte e otimize seu sistema conforme suas necessidades mudam.

É importante notar que o GraphRAG ainda está em seus estágios iniciais, e muitas equipes que constroem esses sistemas ainda estão na fase exploratória. Há poucos exemplos de implantações em produção que estejam oferecendo valor comercial real. Para chegar lá, serão necessários mais conjuntos de dados de benchmark e metodologias de avaliação projetadas especificamente para o GraphRAG, a fim de ajudar as equipes a avaliar melhor o desempenho. Conjuntos de dados de benchmark como o FinanceBench, projetado para resposta a perguntas de livro aberto, oferecem um meio promissor de estudar a capacidade de um sistema GraphRAG de reduzir alucinações e melhorar a precisão factual nas respostas geradas.

Conclusão

O GraphRAG representa um avanço significativo no campo da inteligência artificial, oferecendo uma abordagem mais robusta e precisa para a recuperação e geração de informações. Ao alavancar a estrutura rica dos grafos de conhecimento, ele permite que os LLMs compreendam e respondam a consultas complexas com maior profundidade e relevância. Embora a implementação do GraphRAG apresente desafios, as diversas arquiteturas e as recomendações fornecidas neste artigo servem como um guia valioso para organizações que buscam explorar e integrar essa tecnologia inovadora em suas operações. À medida que a pesquisa e o desenvolvimento continuam, espera-se que o GraphRAG se torne uma ferramenta indispensável para a construção de sistemas de IA mais inteligentes e autônomos.

Este artigo foi originalmente publicado em: https://www.linkedin.com/newsletters/ezine-dev-ramos-da-inform%25C3%25A1tica-6947960536550526976/

Palavras chaves:

Como implementar GraphRAG

Integração de LLMs com grafos de conhecimento

Respostas precisas com IA

Pipelines de GraphRAG

Recuperação híbrida de informações

Redução de alucinações em IA

Banco de dados de grafos Kuzu

Aplicações de GraphRAG em negócios

Empresas de tecnologia anunciam mais de 140 vagas de emprego

0

O mercado de trabalho brasileiro segue aquecido em 2025. Nos cinco primeiros meses do ano, o País registrou a criação de mais de 1 milhão de empregos com carteira assinada, segundo os Dados do Novo Caged (Cadastro Geral de Empregados e Desempregados), divulgados em junho pelo Ministério do Trabalho e Emprego.

Nesse cenário, o setor de tecnologia se destaca com novas oportunidades. Empresas de diferentes portes vêm ampliando seus times diante da retomada sustentada da economia e da crescente demanda por soluções digitais.

Ao todo, mais de 140 vagas estão disponíveis neste momento, refletindo não apenas o bom momento do mercado de trabalho, mas também a transformação nas exigências de perfil profissional, cada vez mais voltadas à qualificação técnica, adaptabilidade e habilidades digitais. Veja as oportunidades abaixo:

iugu
Fundada em 2012, a Iugu é uma empresa de tecnologia especializada em infraestrutura financeira para negócios de alta performance, com investimento do Grupo Goldman Sachs e licença do Banco Central. A empresa valoriza a conexão entre pessoas e tecnologia, promovendo um ambiente colaborativo, respeitoso e focado em resultados. Atualmente a iugu tem 14 vagas de diversas áreas, como: analista de sucesso do cliente sênior; analista de Dados sênior; analista de marketing e conteúdo sênior; entre outros. Para se candidatar às vagas é só acessar a página na Gupy https://iugu.gupy.io/

Siprocal
A Siprocal, empresa especializada em soluções para publicidade digital em múltiplos dispositivos, está com três vagas em aberto nos cargos de Account Manager, APP Senior Sales Manager e Solutions Engineer IT – Product Mobile. Interessados podem encontrar mais informações e se candidatar no link https://siprocal.gupy.io/.

D4Sign
A D4Sign by Zucchetti, plataforma de assinatura eletrônica e digital do Brasil, está com três oportunidades abertas para integrar o time no modelo híbrido. As vagas disponíveis são para os cargos de Coordenador(a) de mídia paga, inbound e SEO, Head de TI SaaS e Desenvolvedor Fullstack Sênior/Pleno. Os benefícios oferecidos incluem VT, VR/VA iFood Benefícios, convênio médico SulAmérica, WellHub (antigo GymPass) e regime híbrido de trabalho para facilitar o dia a dia. A empresa conta com o reconhecimento do GPTW (Great Place to Work), que reforça o seu compromisso com um ambiente acolhedor, inovador e centrado nas pessoas. As candidaturas devem ser feitas através do email: vagas@d4sign.com.br.

Gooroo
A Gooroo Crédito, fintech fundada em 2021, busca um Executivo Comercial para atuar em regime PJ presencialmente em Pinheiros, São Paulo. A empresa é especializada em crédito consignado privado e tem como missão democratizar o acesso ao crédito por meio de uma experiência ágil, descomplicada e transparente. Os requisitos para vaga são: experiência no varejo, promotoras de crédito, correspondentes bancários, além de modelos B2B e B2C. Serão necessários conhecimentos prévios em ferramentas de CRM e disponibilidade total para viagens. Interessados devem enviar currículo para recrutamento@gooroocredito.com.br

MB Labs
O Grupo MB Labs, ecossistema de empresas especializadas em consultoria e desenvolvimento de aplicativos e plataformas digitais, está com 15 vagas abertas para profissionais de tecnologia, entre elas: Desenvolvedor Java (Pleno), Quality Assurance Automatizador (Pleno), Desenvolvedor React.js (Sênior), Desenvolvedor Node (Pleno), Product Owner (Sênior), Desenvolvedor React Native (Pleno), Sales Development Representative – SDR (Pleno, híbrido Campinas/SP), Customer Success CS (Pleno, híbrido Campinas/SP), Tech Lead Fullstack (Pleno/Sênior), Quality Assurance QA Funcional (Pleno) e Tech Lead com ênfase em backend (Node.js). As oportunidades são em formato remoto ou híbrido, com benefícios como horário flexível, Gympass, UniOdonto, equipamentos fornecidos, MB Academy, seguro de vida, bônus por indicação e descanso remunerado. Para mais detalhes e candidaturas basta acessar o link https://www.talentow.com.br/.

Klubi
O Klubi, única fintech autorizada pelo Banco Central a operar como administradora de consórcios no Brasil, está com três vagas abertas em São Paulo. As oportunidades são no formato híbrido, com atuação no escritório localizado no bairro de Pinheiros. As posições disponíveis são para Analytics Engineer Pleno, Analista de Mídia e Performance Pleno e Vendas de Consórcio. A empresa oferece benefícios como plano de saúde e odontológico, cartão multibenefícios, auxílio‑creche, credencial SESC, seguro de vida e gift card em restaurante no dia do aniversário. Para mais informações e candidaturas, acesse este link https://klubi.breezy.hr/.

Olist
A Olist, ecossistema de soluções que integra gestão, vendas, finanças e logística para PMEs, está com mais de 10 vagas abertas em áreas como tecnologia, dados, comercial, operações e atendimento, com opções de trabalho remoto, híbrido e presencial. Entre os destaques estão: Analista de Inteligência Comercial, Analista de Pré‑Vendas (SDR), Analista de Onboarding Júnior, Assistente Operacional de Logística, Especialista em Segurança da Informação, Supervisor(a) de Customer Success, Coordenador(a) de Atendimento ao Cliente, Analista de Relacionamento (Pleno) e outras funções estratégicas. As vagas presenciais e híbridas exigem atuação nas cidades de São Paulo (SP), Osasco (SP), Porto Alegre (RS), Bento Gonçalves (RS) e Curitiba (PR). Para se candidatar, os interessados devem acessar o link https://olist.inhire.app/vagas.

Avla
A Avla, insurtech chilena especializada em soluções para o setor B2B, segue ampliando seu time no Brasil e está com oportunidades em aberto para: Banco de Talentos – Comercial, Banco de Talentos – PCD e Jovem Aprendiz na área de Pós-venda. Interessados podem se candidatar diretamente pelo link: https://avla.gupy.io/

Evertec + Sinqia
A Evertec + Sinqia, líder em soluções financeiras e tecnológicas na América Latina, busca talentos para integrar suas equipes nas áreas tech e corporativa. Com 42 vagas abertas, esta é a oportunidade ideal para quem procura um ambiente de trabalho dinâmico e colaborativo. A empresa oferece um modelo de trabalho híbrido, com posições disponíveis em sua sede, em São Paulo, além das filiais em Belo Horizonte, Curitiba, e Tupã/SP. Interessados podem acessar este link – https://sinqia.gupy.io/ – para se candidatar.

QI Tech
A QI Tech, fintech de infraestrutura para serviços financeiros e única empresa da América Latina a se tornar unicórnio em 2024, está com mais de 50 oportunidades abertas. As vagas disponíveis incluem Desenvolvedor Fullstack, Líder de PLD, Recruiter, e Analista de risco (Special Situations). Os interessados em fazer parte da equipe podem consultar mais informações sobre as vagas, requisitos e benefícios segue o link https://qitech.inhire.app/vagas.

A empresa oferece soluções de ponta a ponta na jornada de crédito, indo desde o onboarding de clientes, antifraude transacional e motor de regras, passando por banking as a service, pagamento de boletos e Pix em alto volume, contas digitais, esteiras de emissão de crédito e administração e custódia de fundos de investimento.

Produtividade com IA: mito ou realidade?

0
IA no desenvolvimento, produtividade real vs. expectativa, e por que DDD é o diferencial para construir sistemas inteligentes e confiáveis.

As ferramentas de inteligência artificial (IA), como o Cursor, prometem revolucionar o desenvolvimento de software, mas um estudo recente levanta questões sobre sua eficácia real. Publicado em https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/, um estudo conduzido pela Model Evaluation and Threat Research (METR) analisou o impacto do Cursor na produtividade de desenvolvedores experientes. Este artigo explora os principais resultados, perspectivas de especialistas e implicações para o uso de IA no desenvolvimento de software.

A METR recrutou 16 desenvolvedores experientes para corrigir 13 problemas reais em repositórios de código aberto, pagando US$ 1.500 por hora. Alguns usaram ferramentas de IA, principalmente o Cursor (com modelos Sonnet 3.5 ou 3), enquanto outros não usaram IA. A análise foi feita a partir de 146 horas de gravações de tela, revelando insights surpreendentes.

Principais Descobertas

  • Produtividade Geral: Contrariando as expectativas, desenvolvedores que usaram IA levaram 19% mais tempo para completar as tarefas do que aqueles sem IA. Embora a IA tenha reduzido o tempo gasto em codificação, pesquisa e testes, o tempo adicional em atividades como criação de prompts, espera pela geração de código, revisão de resultados e “overhead” no ambiente de desenvolvimento (IDE) anulou esses ganhos.
  • Percepção x Realidade: Antes do estudo, os desenvolvedores esperavam que a IA aumentasse a produtividade em 24%. Mesmo após a experiência, eles acreditavam que a IA os havia acelerado em 20%, apesar de os dados mostrarem o contrário.
  • Exceção Notável: Um desenvolvedor com mais de 50 horas de experiência com o Cursor obteve um aumento de 38% na velocidade, sugerindo que a familiaridade com a ferramenta pode levar a melhores resultados. No entanto, com uma amostra de apenas um, a generalização é limitada.

Simon Willison, um engenheiro de software respeitado e especialista em ferramentas de IA, interpretou os resultados no contexto da curva de aprendizado. Ele sugere que a queda de produtividade reflete o tempo necessário para integrar a IA aos fluxos de trabalho existentes. Segundo Simon: “é preciso muito esforço para aprender, explorar e experimentar” com ferramentas de IA, sem guias claros para orientar os desenvolvedores. Ele acredita que os participantes do estudo estavam ainda na fase inicial de adaptação, o que impactou negativamente seu desempenho.

Quentin Anthony: Estratégias para o Sucesso com IA

Quentin Anthony, o desenvolvedor com mais de 50 horas de experiência com o Cursor, oferece uma perspectiva prática. Como estudante de doutorado e desenvolvedor de pré-treinamento, ele argumenta que o sucesso com IA depende menos da habilidade técnica e mais da capacidade de evitar “modos de falha” – tanto do modelo de linguagem quanto do fluxo de trabalho humano. Ele sugere três pontos-chave:

  1. Evitar a mentalidade de “solução mágica”: muitos desenvolvedores tratam os modelos de linguagem (LLMs) como uma solução instantânea, o que leva a frustrações quando os resultados não atendem às expectativas. Anthony enfatiza que LLMs são ferramentas, não atalhos universais.
  2. Conhecer as limitações dos LLMs: LLMs são eficazes em tarefas com abundância de dados de treinamento, como escrita de código genérico ou compreensão de código desconhecido. No entanto, são menos confiáveis em áreas especializadas, como código de baixo nível (ex.: kernels de GPU ou sincronização de comunicação). Anthony recomenda usar LLMs apenas para tarefas nas quais são confiáveis.
  3. Gerenciar o Tempo de Geração: O tempo de espera pela geração de código pode levar a distrações, como navegar em redes sociais. Ele sugere preencher esse tempo com atividades produtivas (ex.: responder e-mails, planejar próximas perguntas) e adotar hábitos de higiene digital, como bloqueadores de sites e modo “não perturbe”.

Desafios do uso de ferramentas de IA.

Curva de Aprendizado

O estudo reforça que ferramentas como o Cursor exigem prática significativa. Dos participantes, 44% nunca haviam usado o Cursor antes, e a maioria tinha até 50 horas de experiência. Isso sugere que a falta de familiaridade contribuiu para a queda de produtividade. Pesquisas adicionais com base em 200 engenheiros, indicaram que aqueles com menos de seis meses de uso de IA tendem a ter uma percepção negativa, muitas vezes abandonando as ferramentas quando elas não atendem às expectativas iniciais. (https://arxiv.org/abs/2507.09089).

Capacidades Inconsistentes dos LLMs

Os LLMs têm desempenho “spiky” (altamente variável). Eles são bons em tarefas com muitos dados de treinamento, mas falham em áreas especializadas devido à escassez de dados ou à falta de benchmarks adequados. Isso exige que os desenvolvedores sejam seletivos ao decidir quando usar IA.

https://www.linkedin.com/embeds/publishingEmbed.html?articleId=7752633118720465228&li_theme=light

Context Switching: Um Obstáculo Subestimado

Um dos insights mais intrigantes é o impacto do context switching (troca de contexto). Ferramentas de IA forçam os desenvolvedores a alternar entre codificação, revisão de código gerado e outras tarefas, interrompendo o estado de “flow” – o foco profundo essencial para a produtividade. O documento levanta a hipótese de que desenvolvedores sem IA podem superar aqueles que usam IA, pois conseguem manter o foco por mais tempo. Isso sugere que o estado de “flow” pode ser uma vantagem competitiva em relação aos ganhos de tempo da IA.

Implicações para a Indústria.

O estudo também reflete tendências mais amplas na indústria de tecnologia:

  • Custos Crescentes de LLMs: A imposição silenciosa de limites no plano “ilimitado” do Cursor gerou insatisfação, indicando que os custos de uso de LLMs estão aumentando. A redução de subsídios de capital de risco pode limitar o acesso a essas ferramentas no futuro.
  • Riscos em Produção: Um incidente com o Replit AI deletando dados de produção destaca os perigos de depender de ferramentas de IA em ambientes críticos.
  • Outages Tecnológicos: Problemas como a queda do 1.1.1.1 e outages causados por uma atualização no systemd do Ubuntu (afetando empresas como Heroku, OpenAI e GitLab) mostram a fragilidade de sistemas dependentes de tecnologia.

Apesar de críticas, sou a favor da adoção.

Se você quer se tornar indispensável no mundo da IA, comece dominando a arte de pensar sistemas — não apenas programá-los.

Imagine que, antes de escrever qualquer linha de código, você documenta exatamente o que o sistema deve fazer, por quê, como saber se está funcionando, como testar, qual comportamento esperar da IA, e até como o sistema deve reagir a ambiguidades.

Isso é uma especificação — mas não qualquer uma: uma especificação executável, ou seja, um documento claro o suficiente para que:

  • Um humano entende o que precisa ser feito;
  • Um modelo de IA consiga agir com base nele (como gerar código, fazer sugestões, validar respostas);
  • E você consiga testar automaticamente se o sistema ou modelo está fazendo o que foi pedido.

Com o avanço dos modelos, o que separa um bom sistema de um sistema ruim não é o código em si, mas sim a clareza com que os requisitos foram pensados, escritos e testados.

Quando você documenta intenções e critérios como especificações, você cria um ponto central de verdade, que:

  • Evita retrabalho e desalinhamento;
  • Permite reaproveitar as mesmas intenções para gerar código, testes, documentação e até conteúdo de IA;
  • Te posiciona como alguém que pensa o sistema como um todo — não só alguém que “programa”.

O que eu, particularmente, recomendo é aprender Domain-Driven Design (DDD) no contexto de Inteligência Artificial (IA) o que é um diferencial brutal para quem quer criar sistemas inteligentes, confiáveis e mantíveis. Abaixo explico de forma direta por que DDD é essencial para IA moderna.

Livro recomendado:

https://www.linkedin.com/embeds/publishingEmbed.html?articleId=7804892448095401961&li_theme=light

DDD é um conjunto de práticas para modelar o software com base no domínio de negócio, com foco em clareza, linguagem comum e separação de responsabilidades.

Por que DDD é essencial para projetos com IA

1. Delimita o que a IA pode ou não fazer.

Com DDD, você define:

  • Bounded Contexts: a IA age só dentro de uma área clara (ex: classificação de produto, geração de resumo).
  • Ubiquitous Language: o prompt usa exatamente os termos que o time técnico e de negócio entendem.

2. Separa IA da Regra de Negócio.

Você define interfaces claras entre:

  • Aplicação: controla quando e como chamar a IA.
  • Domínio: define regras imutáveis (ex: “produto sem categoria não pode ser salvo”).
  • IA (serviço externo): só sugere, nunca decide.

💡 Isso te permite testar e substituir a IA se necessário (ex: por regras fixas ou outro modelo).

3. Permite usar IA como componente plugável no domínio

Em vez de codar regra hardcoded ou dar controle total à IA, você faz algo como:

const categoria = await IA.sugerirCategoria(produto);

if (!Categoria.valida(categoria)) {
  throw new CategoriaInvalida();
}

produto.categorizarComo(categoria);

🧩 A IA vira uma peça do domínio, mas o controle permanece no core.


4. Facilita versionamento e testes automatizados

Com DDD, sua spec executável (como vimos acima) descreve:

  • Entradas válidas.
  • Comportamento esperado da IA
  • Regras de fallback.

E você consegue escrever testes baseados em casos reais, como:

test('IA sugere categoria correta para smartwatch', () => {
  const entrada = new Produto('Smartwatch XYZ', 'Relógio com batimentos');
  const categoria = ia.sugerirCategoria(entrada);
  expect(categoria).toBe('Eletrônicos > Wearables');
});

Em resumo:

  1. IA sem DDD = código frágil
  2. IA com DDD = sistema confiável, modular, inteligente

Como será o papel do desenvolvedor?

O desenvolvedor do futuro será um orquestrador de inteligência, não apenas um digitador de código.

Vai fazer:

  • Especificar comportamentos esperados
  • Definir limites do sistema (com DDD)
  • Ensinar a IA com dados e exemplos
  • Garantir segurança, rastreabilidade e qualidade
  • Construir integrações entre IA + APIs + banco

Vai evitar:

  • Repetir código boilerplate
  • Implementar lógica simples (validações, conversões)
  • Traduzir requisitos ambíguos manualmente

Um dev com IA eficaz não é aquele que apenas escreve código. É aquele que modela intenções, coordena sistemas inteligentes e alinha pessoas, negócios e máquinas.

Os introspectivos precisarão se adaptar

Hoje, um bom dev é avaliado por:

  • Saber codar bem
  • Conhecer frameworks
  • Resolver bugs

No futuro (que já começou), será avaliado por:

  • Saber expressar intenções de forma clara
  • Colaborar com pessoas e máquinas
  • Criar alinhamento entre negócio, design e tecnologia
  • Analisar, revisar e adaptar o que a IA gera

Por isso, os chamados “soft Skills”, preciso “human Skills”. como:

1. Comunicação clara e precisa

Se você não consegue explicar o que quer que o sistema faça, nem humanos nem IAs vão entregar.

  • Escrever especificações compreensíveis
  • Criar prompts com contexto
  • Ser claro em reuniões: “O que isso significa no fluxo real?”

2. Colaboração entre pessoas e IA

Times que criam sistemas inteligentes precisam co-criar, não competir.

  • Explicar para o time o que a IA pode ou não fazer
  • Pedir feedback de negócios e usuários sobre os comportamentos da IA
  • Corrigir ou reescrever prompts com base em testes reais

3. Curiosidade e aprendizado contínuo

A IA está evoluindo. Você precisa se adaptar, testar, experimentar.

  • Testar novas formas de usar prompts
  • Acompanhar modelos e frameworks emergentes (ex: function calling, agents, specs dinâmicas)
  • Compartilhar descobertas com o time

4. Pensamento crítico

A IA vai gerar sugestões o tempo todo. Nem todas são boas.

  • Saber dizer “isso não faz sentido”
  • Comparar alternativas com base em domínio de negócio
  • Validar com dados, testes ou comportamento de usuário real

5. Criatividade

A IA executa. A criatividade direciona.

  • A IA executa o que você pede — então você precisa ser criativo no que pedir.
  • Criatividade ajuda a modelar comportamento, resolver problemas complexos e criar experiências melhores.
  • Times com IA nivelam o jogo técnico — o diferencial será quem pensa diferente.

Resumo Rápido:

  • IA ainda exige curva de aprendizado.
  • Produtividade só vem com domínio da ferramenta.
  • Especificações claras + DDD = IA útil de verdade.
  • Soft skills vão definir os bons devs do futuro.

LIVRO RECOMENDADO: https://amzn.to/44QXhAN

CURSO RECOMENDADO: https://huggingface.co/learn/agents-course/unit0/introduction (Não apenas para agentes de IA, mas utilizar o https://ollama.com/ para baixar estes modelos em sua máquina e ter um conhecimento mais profundo e economia $$ no uso de LLMs. Uma vez que modelos open-source estão cada vez mais próximos dos modelos comerciais).

Para refletir

Você está pronto para ser um engenheiro de sistemas inteligentes ou vai continuar apenas pedindo código para a IA?

Escrito com muito café. Apoie compartilhando.

Publicado originalmente em: https://www.linkedin.com/pulse/produtividade-com-ia-mito-ou-realidade-ramos-de-souza-janones-6kmpf/

BLACK FRIDAY EXCLUSIVA Rocketseat ÚLTIMAS VAGAS
ATÉ 80% OFF em Ignite Pro, Discover, NLW Expert, mentoria 1:1, projetos reais + certificado reconhecido — transforme sua carreira em 6 meses ou menos!
QUERO MINHA VAGA AGORA