
A análise crítica do artigo da Harvard Business Review "Como as Pessoas Estão Realmente Usando IA Generativa em 2025" destrincha...
Análise crítica do artigo da HBR de Marc Zao-Sanders
O artigo da Harvard Business Review (HBR), intitulado “Como as Pessoas Estão Realmente Usando IA Generativa em 2025“, escrito por Marc Zao-Sanders, apresenta uma análise atualizada sobre as aplicações da inteligência artificial generativa (IA generativa), sendo uma evolução do artigo de 2024.
Publicado em 9 de abril de 2025, o texto reflete o rápido avanço das tecnologias de IA generativa no último ano, destacando inovações como Custom GPTs, novos modelos como DeepSeek e Grok, o gerador de podcasts NotebookLM do Google e os esforços da OpenAI para criar interfaces unificadas.
O artigo enfatiza avanços como raciocínio em cadeia, integração de comandos por voz e redução de custos, que ampliaram o acesso à IA generativa.
Ele se baseia em um extenso conjunto de dados — milhares de postagens em fóruns como Reddit e Quora, analisadas nos últimos 12 meses — para categorizar 100 casos de uso em seis temas: Assistência Técnica e Solução de Problemas, Criação e Edição de Conteúdo, Suporte Pessoal e Profissional, Aprendizado e Educação, Criatividade e Recreação, e Pesquisa, Análise e Tomada de Decisão.
Fizemos uma análise critica o artigo, com foco na seção “O que os usuários estão fazendo agora” e uma crítica aprofundada do caso de uso “Propósito e Significado“.
Adotamos uma abordagem de pensamento lateral, que questiona suposições, expõe riscos e propõe perspectivas inovadoras que desafiam os paradigmas convencionais.
"Quando a IA se torna terapeuta, quem garante que suas 'verdades' não são alucinações disfarçadas de empatia?
"
A metodologia de Zao-Sanders envolve a análise de “milhares de postagens em fóruns” do Reddit e Quora, complementada por entrevistas com líderes da indústria, como Jared Spataro, da Microsoft.
O artigo especifica que os dados foram restritos aos últimos 12 meses (abril de 2024 a abril de 2025) para capturar tendências recentes, uma melhoria em relação ao estudo de 2024, que cobria um período mais amplo.
No entanto, detalhes cruciais estão ausentes:
Tamanho da amostra e demografia: O artigo não quantifica o número de postagens analisadas (por exemplo, 5.000 ou 50.000?) ou o número de usuários únicos envolvidos. Sem isso, a representatividade dos resultados é incerta. As postagens vieram de entusiastas de tecnologia, usuários casuais ou uma mistura equilibrada?
Dados demográficos — idade, gênero, região ou status socioeconômico — também não são fornecidos, limitando a avaliação da aplicabilidade global.
Processo de coleta de dados: O artigo menciona vagamente a “análise” de fóruns, mas não detalha como as postagens foram selecionadas.
Foi uma curadoria manual, extração algorítmica ou uma combinação? As postagens foram filtradas por relevância, sentimento ou engajamento? A falta de transparência levanta questões sobre viés de seleção, especialmente porque usuários de Reddit e Quora podem não representar a população geral.
Detalhes das entrevistas: A inclusão da perspectiva de Spataro adiciona profundidade qualitativa, mas o artigo não esclarece quantos especialistas foram entrevistados ou como suas opiniões foram ponderadas em relação aos dados dos fóruns.
Isso pode superdimensionar pontos de vista corporativos, especialmente da Microsoft, um grande player em IA generativa com o Copilot.
Métricas quantitativas: O artigo cita 100 casos de uso, mas não oferece uma divisão estatística de sua prevalência. Por exemplo, quantas postagens mencionaram “Terapia/Companheirismo” em comparação com “Contestar uma Multa”? Sem dados de frequência, a relevância do ranking é especulativa.
Nossa análise sugere que a metodologia depende fortemente de dados anedóticos e autorrelatados de fóruns públicos, que são suscetíveis a câmaras de eco e postagens performativas.
Usuários podem exagerar sucessos ou omitir falhas, distorcendo a narrativa para casos de uso otimistas.
Uma abordagem mais robusta poderia incluir pesquisas estruturadas, registros de uso de plataformas de IA generativa ou parcerias com empresas como OpenAI, Google ou Grok para acessar dados anonimizados de usuários, fornecendo uma visão mais clara do engajamento no mundo real.
"A IA organiza sua vida, mas a que custo? Um cronograma perfeito pode esconder a perda da sua capacidade de decidir.
"
Ouça o debate do artigo no PodCast
"Aprender com IA é empoderador, mas e se ela estiver ensinando respostas erradas com a confiança de um mestre?
"
"A IA como guia para o propósito é uma promessa sedutora, mas será que estamos trocando reflexão por respostas prontas?
"
“O que os usuários estão fazendo agora” destaca seis casos de uso:
Fizemos uma análise com foco nos riscos, especialmente alucinações da IA e janelas de contexto limitadas, particularmente para usuários de planos gratuitos.
Visão geral: Usuários utilizam a IA generativa como terapeuta virtual ou companheiro, abordando necessidades emocionais ou solidão.
Exemplo: Usuários buscam IA para insights introspectivos ou reforço de hábitos diários.
Análise: A proeminência desse caso de uso reflete uma mudança social para soluções digitais em saúde mental, impulsionada pela acessibilidade e redução de estigma. No entanto, os riscos são significativos:
Alucinações: Mesmo modelos avançados como GPT-4o ou Grok podem gerar conselhos plausíveis, mas incorretos ou prejudiciais. Por exemplo, uma IA pode interpretar erroneamente o estado emocional de um usuário ou sugerir estratégias de enfrentamento não validadas, potencialmente agravando problemas de saúde mental.
Limitações de contexto: Modelos gratuitos geralmente têm janelas de contexto menores (por exemplo, 4.000–8.000 tokens), limitando sua capacidade de manter conversas terapêuticas coerentes e de longo prazo. Isso pode levar a respostas desconexas ou superficiais, minando a confiança.
Preocupações éticas: A IA carece de empatia humana e responsabilidade. Usuários podem depender excessivamente da IA para problemas graves de saúde mental, adiando intervenções profissionais. O artigo ignora esses perigos, apresentando o caso de uso como inequivocamente positivo.
Nossa visão crítica: Em vez de enquadrar a IA como terapeuta, considere-a um “espelho reflexivo” que incentiva os usuários a articular emoções sem oferecer soluções. Isso reposiciona a IA como uma ferramenta para autoconhecimento, reduzindo o risco de ultrapassar o território clínico.
As plataformas poderiam integrar avisos obrigatórios ou encaminhamentos a terapeutas humanos, desafiando o status quo da IA como solução independente.
Visão geral: Usuários usam IA generativa para gerenciar agendas, hábitos ou tarefas domésticas, por exemplo, criando cronogramas para limpeza ou definindo resoluções de ano novo.
Análise: Esse caso de uso destaca a força da IA no gerenciamento de tarefas estruturadas, mas os riscos persistem:
Alucinações: A IA pode gerar cronogramas impraticáveis ou calcular mal os requisitos de tempo, especialmente para tarefas complexas. Por exemplo, um cronograma de limpeza pode ignorar restrições do mundo real, como disponibilidade de recursos.
Limitações de contexto: Usuários de planos gratuitos podem enfrentar dificuldades com a IA esquecendo entradas anteriores devido à memória limitada, levando a planos redundantes ou inconsistentes.
Dependência excessiva: O entusiasmo do artigo pela IA como assistente pessoal pode fomentar dependência, potencialmente enfraquecendo as habilidades de planejamento dos usuários.
Nossa visão crítica: Veja a IA como um “simulador de caos” que gera múltiplos cenários de planejamento, forçando os usuários a avaliar criticamente as opções em vez de aceitar uma única saída.
Isso capacita os usuários a refinar suas habilidades organizacionais, desafiando a narrativa da IA como um orquestrador perfeito.
Visão geral: A IA apoia o aprendizado autodirigido, por exemplo, explicando conceitos complexos em cursos online ou complementando anotações de estudo.
Análise: Esse caso de uso é promissor para democratizar a educação, mas:
Alucinações: A IA pode fornecer explicações incorretas com confiança, especialmente em campos técnicos como análise de dados. Modelos recentes ainda enfrentam problemas com precisão factual em domínios de nicho.
Limitações de contexto: Modelos gratuitos podem perder o rastreamento do progresso de aprendizado de um usuário, oferecendo conteúdo redundante ou desalinhado.
Viés nas fontes: A IA frequentemente se baseia em dados da web, que podem perpetuar conteúdo educacional desatualizado ou enviesado.
Nossa visão crítica: Reimagine a IA como um “provocador socrático” que faz perguntas desafiadoras em vez de fornecer respostas, promovendo o pensamento crítico.
Isso muda o foco do consumo passivo para a investigação ativa, rompendo com a dinâmica tradicional de tutor-aluno.
Visão geral: Usuários contam com a IA para planejamento alimentar, por exemplo, gerando receitas com base nas necessidades de macronutrientes.
Análise: A capacidade da IA de simplificar o planejamento de refeições é prática, mas:
Alucinações: A IA pode sugerir receitas inseguras ou nutricionalmente desequilibradas, especialmente se treinada em fontes não verificadas. Por exemplo, uma receita pode incluir alérgenos não sinalizados para o usuário.
Limitações de contexto: Modelos gratuitos podem não considerar o histórico alimentar ou condições médicas de um usuário, levando a sugestões genéricas ou prejudiciais.
Riscos à saúde: O artigo subestima o perigo de usuários tratarem a IA como nutricionista sem supervisão profissional.
Nossa visão crítica: Posicione a IA como um “gerador de hipóteses de saúde” que oferece ideias alimentares para validação por especialistas, incentivando a colaboração entre IA e profissionais humanos.
Isso desafia a suposição de que a IA pode otimizar a saúde de forma independente.
Visão geral: A IA cria planos de viagem detalhados, incluindo hospedagem, restaurantes e atrações.
Análise: Esse caso de uso demonstra a capacidade da IA de agregar informações, mas:
Alucinações: A IA pode recomendar destinos inexistentes ou desatualizados, como visto em saídas iniciais do ChatGPT que fabricavam locais.
Limitações de contexto: Modelos gratuitos podem ter dificuldade em integrar preferências do usuário em múltiplos prompts, resultando em roteiros genéricos.
Cultural local: A IA pode ignorar costumes locais ou questões de acessibilidade, levando a planos impraticáveis.
Nossa visão crítica: Trate a IA como um “narrador de viagens” que cria roteiros fictícios para inspirar planos humanos, combinando criatividade com praticidade.
Isso reformula o papel da IA, reduzindo a dependência de sua precisão factual.
Visão geral: Usuários usam IA para redigir recursos para multas de trânsito ou estacionamento.
Análise: Esse caso de uso de nicho demonstra o potencial da IA na redação jurídica, mas:
Alucinações: A IA pode gerar argumentos juridicamente imprecisos ou citar leis inexistentes, arriscando a rejeição do caso.
Limitações de contexto: Modelos gratuitos podem não reter detalhes específicos do caso, produzindo recursos genéricos.
Riscos legais: O artigo ignora o perigo de usuários dependerem da IA sem consultoria jurídica, potencialmente piorando os resultados.
Nossa visão crítica: Enxergue a IA como um “brainstormer jurídico” que gera ideias de argumentos para advogados refinarem, posicionando-a como uma ferramenta colaborativa em vez de substituta da expertise.
Isso desafia a narrativa da IA democratizando o acesso jurídico sem supervisão.
O artigo classifica “Encontrar Propósito” como o terceiro caso de uso mais proeminente, descrevendo-o como usuários utilizando IA generativa para obter insights introspectivos, alinhar hábitos diários com metas de longo prazo ou explorar questões existenciais. Isso é apresentado como uma aplicação nova e de alto impacto, mas uma análise crítica revela falhas e riscos significativos, que o artigo minimiza.
A afirmação do artigo de que “Encontrar Propósito” é um caso de uso principal parece exagerada, dada a falta de evidências quantitativas. Sem dados sobre a frequência de postagens relacionadas, não está claro se isso reflete adoção generalizada ou uma minoria vocal. A ênfase no propósito pode refletir um viés cultural em direção à auto-otimização, prevalente em comunidades ocidentais e tecnologicamente avançadas no Reddit e Quora. Usuários em outros contextos — por exemplo, populações não falantes de inglês ou menos conectadas digitalmente — podem priorizar aplicações práticas em vez de existenciais, uma nuance que o artigo ignora.
A tendência da IA a alucinar é particularmente perigosa ao abordar propósito. Modelos como GPT-4o ou Grok, apesar dos avanços, podem gerar conselhos filosóficos vagos ou enganosos, baseando-se em uma mistura de textos da internet em vez de frameworks coerentes. Por exemplo, uma IA pode sugerir um objetivo de vida baseado em psicologia pop ou atribuir erroneamente valores culturais, desviando os usuários. A falha do artigo em abordar esse risco é uma omissão crítica, especialmente dado o peso emocional das consultas relacionadas ao propósito.
Modelos gratuitos, com janelas de contexto restritas, têm dificuldade em manter diálogos significativos e de longo prazo sobre propósito. Um usuário explorando o sentido de sua vida em várias sessões pode receber respostas inconsistentes ou rasas, já que a IA esquece entradas anteriores. Mesmo modelos pagos, com janelas de contexto maiores (por exemplo, 128.000 tokens), carecem da profundidade de mentores humanos que se baseiam em experiências vividas.
A representação do artigo da IA como uma ferramenta para encontrar propósito ignora essa superficialidade, apresentando uma visão excessivamente otimista.
O uso da IA para propósito levanta questões éticas que o artigo evita:
Risco de manipulação: A IA pode sutilmente direcionar os usuários para objetivos alinhados com os incentivos da plataforma (por exemplo, maior engajamento) em vez de autodescoberta autêntica.
Viés cultural: A IA treinada em dados centrados no Ocidente pode impor noções individualistas de propósito, marginalizando perspectivas coletivistas comuns em culturas não ocidentais.
Dependência existencial: A dependência excessiva da IA para significado pode erodir a agência humana, fomentando uma geração que terceiriza a autorreflexão para algoritmos.
Em vez de posicionar a IA como guia para propósito, considere-a um “parceiro filosófico de debate” que desafia os usuários com perguntas provocadoras ou pontos de vista contraditórios.
Por exemplo, em vez de sugerir “Seu propósito é buscar criatividade”, a IA poderia perguntar, “Por que você assume que o propósito deve ser singular?” ou “E se o propósito for uma ilusão?” Essa abordagem força os usuários a confrontar suas crenças, promovendo introspecção genuína.
Ela rompe com a narrativa do artigo da IA como sábia, reformulando-a como catalisadora para a construção de significado impulsionada por humanos.
O foco do artigo no propósito reflete uma suposição tecno-utópica de que a IA pode resolver crises existenciais, uma narrativa que desvia a atenção de questões sistêmicas como desigualdade econômica ou acesso à saúde mental.
Ao celebrar o papel da IA em encontrar significado, o artigo implicitamente endossa um futuro onde a tecnologia substitui a conexão humana, um precedente perigoso.
"No brilho da IA generativa, esquecemos de perguntar: estamos usando a tecnologia, ou ela está nos usando?
"
Para desafiar a apresentação linear do artigo, esta análise introduz o “Prisma da IA”, um novo quadro para avaliar casos de uso da IA generativa. O prisma refrata cada caso de uso por três lentes:
Utilidade vs. risco: Equilibra benefícios práticos contra riscos de alucinações, vieses e dependência. Por exemplo, Terapia/Companheirismo oferece suporte emocional, mas arrisca conselhos prejudiciais, inclinando o prisma para a cautela.
Agência humana vs. máquina: Avalia se a IA capacita os usuários ou substitui o esforço humano. Organizando Minha Vida melhora a produtividade, mas arrisca dependência, diminuindo a agência humana.
Impacto individual vs. coletivo: Examina se os casos de uso atendem a objetivos pessoais ou necessidades sociais mais amplas. Encontrar Propósito é individualista, negligenciando desafios coletivos como a ação climática.
Aplicar o prisma ao artigo revela um viés para aplicações individuais e centradas em tecnologia, com atenção insuficiente aos riscos ou implicações sociais.
Este quadro desafia o status quo ao exigir uma avaliação multidimensional do papel da IA, indo além da lente otimista da HBR.
O artigo da HBR oferece um instantâneo valioso das aplicações em evolução da IA generativa, mas sua falta de transparência metodológica, ênfase excessiva em casos de uso positivos e falha em abordar riscos como alucinações e limitações de contexto comprometem seu rigor.
A seção “O que os usuários estão fazendo agora” destaca inovações práticas, mas minimiza armadilhas éticas e práticas, particularmente em áreas sensíveis como terapia e busca de propósito.
O caso de uso “Propósito e significado”, embora intrigante, é superestimado e repleto de riscos, desde respostas superficiais até vieses culturais.
Sugerimos reimaginações laterais — como a IA como espelho reflexivo, simulador de caos ou parceiro filosófico de debate — esta análise rompe com o tecno-otimismo do artigo, defendendo um futuro onde a IA amplifica a agência humana e o bem coletivo. Ao desafiar o status quo, ela pede uma abordagem mais crítica e criativa para entender o papel da IA generativa em 2025 e além.
Fontes:
Zao-Sanders, M. (2025). Como as Pessoas Estão Realmente Usando IA Generativa em 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
Zao-Sanders, M. (2024). Como as Pessoas Estão Realmente Usando IA Generativa. Harvard Business Review. https://hbr.org/2024/03/how-people-are-really-using-genai
Desde de 2012 temos ajudado o mercado jurídico a evoluir.
O que há de mais atual sobre gestão para escritórios de advocacia
A análise crítica do artigo da Harvard Business Review "Como as Pessoas Estão Realmente Usando IA Generativa em 2025" destrincha...
Como a IA pode reinventar a Advocacia no Brasil e o que você precisa para ser protagonista.
A inteligência artificial deixou de ser mera ferramenta para tornar‑se um “estimulante digital” que acelera rotinas, cria dependência e cobra...
Não é só mais um gasto: pagar o ChatGPT para uso na advocacia pode significar ganhos expressivos em produtividade, criatividade...
Descubra como a inteligência artificial está revolucionando escritórios jurídicos internacionais e quais desafios e oportunidades os advogados brasileiros enfrentam para...
Com a ferramenta inovadora da AdvocoBrasil, você controla suas comissões de forma fácil, rápida e segura.
Nossa ferramenta:
Com esta ferramenta simples, porém inovadora da Advocobrasil, você precifica seus honorários em segundos, com precisão e confiança.
Nossa ferramenta:
Como lidar com a falta de alinhamento, as limitações, ansiedades, perdas de controle, egos inflados e a falta de visão dos sócios?
Nossa abordagem avalia quão alinhados os sócios estão com a visão de gestão atual, conexão com o futuro e principalmente sobre a clareza de seus papeis e responsabilidades de liderança.
Liderar um escritório de advocacia exige mais do que conhecimento jurídico.
É necessário visão estratégica, capacidade de inspirar e impulsionar o crescimento. A Advoco Brasil ajuda criando um ambiente de alto desempenho e cultivando uma cultura de inovação.
As ferramentas digitais, as novas leis e as demandas dos clientes exigem adaptabilidade e visão de futuro.
AdvocoBrasil ajuda a identificar as tendências do mercado e a desenvolver estratégias para se manter competitivo e relevante, com metodologias de Gestão de Mudanças.
Atrair novos clientes e fidelizar os existentes é fundamental.
A AdvocoBrasil te ajuda a desenvolver estratégias de marketing jurídico eficazes, a construir relacionamentos sólidos com clientes e a identificar novas oportunidades de negócio.