O Prêmio Nobel de Economia de 2021 foi concedido a David Card de Berkeley, Josh Angrist do MIT e Guido Imbens de Stanford por seus trabalhos em “experimentos naturais”, uma abordagem atualmente em voga para estimar o impacto causal de uma variável econômica sobre outra. Card, é claro, ficou famoso dentro e fora da profissão por seu trabalho de 1994 com o falecido Alan Krueger sobre o salário mínimo. Card e Krueger evitaram a análise convencional de oferta e demanda do salário mínimo (que prevê que, em igualdade de condições, aumentar o salário mínimo leva ao aumento do desemprego) em favor de um exercício empírico ateórico. Eles compararam a mudança no emprego em restaurantes de fast food em Nova Jersey, que aumentou seu salário mínimo estadual, com a da vizinha Pensilvânia, que não o fez, e não encontrou diferenças substanciais, concluindo que – ao contrário da sabedoria convencional entre os economistas – os salários mínimos não excluem os trabalhadores de baixa produtividade do mercado de trabalho.
Embora os detalhes do estudo de Card-Krueger sejam amplamente contestados (para dizer educadamente), a abordagem empírica que eles defenderam não o é. Seu trabalho ajudou a inaugurar o que foi chamado de “revolução da credibilidade” ou “revolução da identificação” na microeconomia aplicada (também chamada de “abordagem baseada em design” em oposição à antiga “abordagem baseada em modelos”). Angrist e Imbens desenvolveram técnicas econométricas para estimar os “efeitos do tratamento” que são centrais para esta abordagem. Ao contrário dos experimentos de laboratório, nos quais os indivíduos podem ser atribuídos aleatoriamente a grupos de tratamento e controle, com o experimentador mantendo todas as outras condições constantes, os estudos observacionais requerem truques estatísticos para satisfazer as condições “ceteris paribus”. Desenvolver e aplicar esses truques tem sido o foco principal da economia aplicada dominante nas últimas três décadas.
Apesar de sua popularidade, essa abordagem tem seus críticos. Para os austríacos, a causalidade nas ciências sociais é uma construção teórica, não algo que pode ser extraído dos dados sem alguma compreensão a priori do comportamento humano e como ele afeta (e é afetado por) fenômenos econômicos e sociais. Os métodos experimentais e quase experimentais podem fornecer alguns insights empíricos históricos limitados, mas tendem a não ter “validade externa”, ou seja, nunca se sabe se os resultados se manterão em outros ambientes. Existem muitos críticos tradicionais do uso excessivo de experimentos naturais, experimentos de campo (testes controlados aleatórios) e a ênfase exagerada na identificação sobre a importância (George Akerlof chama isso de tendenciosidade para a “dureza”).
De forma mais geral, as abordagens mais recentes anunciam um interesse decrescente na teoria em favor do que pode ser chamado de empirismo bruto – “bruto” não no sentido de que os métodos empíricos não sejam sofisticados, mas significando que as questões subjacentes são simples, questões do tipo “esse x afeta esse y” que raramente envolvem ideias, construções ou relacionamentos econômicos. Já escrevi anteriormente sobre o afastamento das questões econômicas em direção a questões que são “pequenas” no sentido de que não envolvem princípios econômicos de forma alguma. A popularidade decrescente da teoria corresponde à crença ingênua de que a ciência, como disse Lord Kelvin, é tudo sobre medição e que os dados de alguma forma “falam por si” – quando, na realidade, os dados empíricos são úteis apenas na forma como são interpretados por seres humanos que pensam, escolhem e agem.
Artigo original aqui