O presente texto trata da Metodologia da Economia do ponto de vista da Filosofia da Ciência. Para isso, serão abordadas algumas obras fundamentais nesses dois ramos do conhecimento.

Apresentação

O presente texto trata da Metodologia da Economia do ponto de vista da Filosofia da Ciência. Para isso, serão abordadas algumas obras fundamentais nesses dois ramos do conhecimento.

A partir da obra de Mark Blaug, “Metodologia da Economia”, optou-se por estender a análise para além do foco em Thomas Kuhn, com sua visão paradigmática apresentada em “A Estrutura das Revoluções Científicas”, introduzindo a polaridade entre Realismo e Antirrealismo na Ciência. Ênfase será dada às ideias de seus representantes Richard Boyd e Bas Van Fraassen, respectivamente, e com o especial intento de estabelecer a entidade “mercado” como pertencente à realidade econômica. Não será feita qualquer referência ao legado de Karl Popper, nem à qualquer visão falseacionista da Economia.

O campo de trabalho escolhido ficou restrito às Finanças e aos modelos de apreçamento associados ao mercado de derivativos, adotando como paradigma o modelo Black-Scholes. Outros modelos de apreçamento em Finanças, como o CAPM, não serão abordados.

Com o objetivo de fornecer contraponto, duas obras influentes foram brevemente analisadas. O tema “modelos”, aludido nos trabalhos de Ronald Giere, do lado de Filosofia da Ciência, e o controverso instrumentalismo econômico de Milton Friedman em “The metodology of positive economics” publicado em Essays in positive economics (Universidade de Chicago, 1953) encerram a base conceitual do presente artigo.

Todas as referências utilizadas constam ao final.

O trabalho pretende inovar com uma conclusão sobre o que seria uma contradição dos modelos de apreçamento em Economia, a partir do contexto aqui construído.

O início: visões tendenciosas da Economia

O estudo da Economia envolve várias escolas e linhas metodológicas comumente conflitantes entre si. Um dos motivos geralmente apontados para isso seria o fato de que, ao contrário de outras ciências, a Economia não é desvinculada da visão de mundo do pesquisador, cujas crenças interferem, conscientemente ou não, em seu trabalho científico. Em virtude disso, a Economia não apresenta unidade nem mesmo quanto ao seu objeto, pois este depende da visão que o economista tem do processo produtivo.

Historicamente, foi a partir do século XVIII que a Economia passou a definir sua área de ação e a se diferenciar das outras ciências sociais. Duas abordagens distintas chegaram a ser utilizadas para interpretar a essência da atividade econômica e para fundamentar as teses centrais dessa nova disciplina, a mecanicista e a organicista.

Os estudiosos do grupo organicista tratavam o comportamento da Economia como se ele decorresse de um organismo vivo. A terminologia utilizada era retirada dos estudos biológicos e com ela procuravam descrever os problemas econômicos. Já os mecanicistas recorriam à analogia com as leis físicas para tratar das leis econômicas.

Essas duas visões, a organicista e a mecanicista, gradualmente deram espaço para a percepção de que a Economia é, de fato, uma ciência social. Ao tratar de ações humanas, não pode o estudo econômico desvincular-se dos aspectos psicológicos do processo de decisão. Nesse sentido, Lionel Robbins propôs a famosa definição de Economia: “A Economia é uma ciência que estuda o comportamento humano como uma relação entre fins e meios escassos, os quais têm usos alternativos.” (Robbins, 1935, pp. 16-7).

Sobre Finanças

Até a década de 50, as Finanças não consistiam em um estudo sistemático e organizado e baseavam-se na experiência e no senso comum de seus praticantes.

Somente após os anos 50 houve um ramo da Economia que se especializou e tornou-se praticamente independente, muitas vezes conhecido pela designação Teoria Moderna de Finanças, ao mesmo tempo em que houve uma evolução tecnológica dos mecanismos de negociação em mercado (local, físico ou não, de encontro regular entre compradores e vendedores).

Os chamados mercados financeiros servem a uma finalidade-chave na economia, ao possibilitar a alocação de recursos entre várias áreas de produção. Através dos mercados financeiros os recursos acumulados (poupança) são transformados em investimentos das empresas. O comportamento destes mercados reflete também as perspectivas futuras e os riscos das empresas, o que possibilita aos investidores diversificar seus riscos e adquirir valiosas informações para suas decisões de investimento.

Em 1990 três importantes trabalhos, considerados como embriões dos estudos em Finanças, deram aos seus autores o Prêmio Nobel de Economia: Harry Markowitz, Merton Miller e William Sharpe.

Os instrumentos derivativos e as opções

Desde o último quarto do século XX o mercado de derivativos tem se tornado extremamente importante no mundo. Atualmente, diversos instrumentos derivativos são negociados diariamente nas mais diversas bolsas. Por possibilitarem modificações em níveis de risco assumidos pelos investidores, passaram a ser largamente utilizados em estratégias de investimentos. Para chegar a esse estágio atual foi fundamental a contribuição do modelo desenvolvido por Black, Scholes e Merton no início dos anos 70.

Uma opção se caracteriza pelos seguintes elementos: o prêmio, ou valor da opção (valor pago para se ter o direito de comprar ou vender), o preço de exercício, ou strike (valor pelo qual o titular da opção poderá comprar ou vender o ativo), e o exercício (data limite para que o titular da opção exerça seu direito).

Um dos problemas clássicos em Finanças trata da determinação do valor do prêmio de uma opção. No final da década de 60, a colaboração de três pesquisadores resultou no chamado Modelo Black-Scholes, publicado na edição de maio-junho de 1973 do Journal of Political Economy (Black & Scholes, 1973). Esse trabalho deu a um de seus autores, Myron Scholes (o outro autor, Fischer Black, falecera em 1996), e a um de seus colaboradores, Robert Merton, o Prêmio Nobel de Economia de 1997.

O funcionamento dos mercados exige que os diversos agentes possam selecionar o nível apropriado de risco para suas transações. Isto ocorre nos mercados financeiros, nos quais os riscos são distribuídos entre aqueles que querem evitá-los e os que podem assumi-los. Os mercados de opções e outros derivativos são importantes no sentido de que os agentes que antecipam os rendimentos ou pagamentos futuros podem assegurar um determinado lucro ou se precaver de uma perda acima de um determinado nível. Um pré-requisito para que essa distribuição seja eficiente, entretanto, é que tais instrumentos — opções e demais derivativos — estejam apreçados corretamente. E um método para determinar o valor desses derivativos teve forte influência nas ciências econômicas nas últimas três décadas do século XX.

O Modelo Black-Scholes de apreçamento de opções

Robert Merton, Myron Scholes e Fischer Black desenvolveram, em colaboração, uma solução para o problema do apreçamento de uma opção. Em 1973, Black e Scholes publicaram o que veio a ser difundido mundialmente como a fórmula Black-Scholes.

A proposta de Black-Scholes é determinar o preço de uma opção de compra através de uma equação dependente apenas dos parâmetros que definem o derivativo (o preço de exercício, ou strike, o prazo até o vencimento e o preço atual do ativo), da taxa de juros livre de risco vigente no mercado e da volatilidade.

O Prêmio Nobel de Economia de 1997, concedido aos criadores desse modelo, foi um reconhecimento ao impacto que o trabalho de Black-Scholes teve no estudo das Finanças. Conforme Scholes e Merton puderam apresentar em seus lectures do Nobel, seu modelo teve papel fundamental no fortalecimento da grande expansão do uso dos mercados derivativos em escala global (cf. Merton, 1997).

Na prática, a utilização do modelo pelos operadores adquire uma práxis peculiar, nas palavras de Hull (1998, p. 557):

“[...] fica evidente que o modelo Black-Scholes proporciona uma descrição menos que perfeita do mundo real. Os preços das ações e de outros ativos exibem um comportamento mais complexo do que o movimento browniano geométrico. Por que, então, profissionais de mercado continuam a utilizá-lo?

Um motivo é a facilidade de sua aplicação. Há apenas um parâmetro que não é observável no mercado – a volatilidade. Os profissionais podem, de forma não-ambígua, deduzir volatilidades a partir dos preços das opções e preços das opções a partir das volatilidades.

[...] Outro motivo da popularidade do modelo Black-Scholes reside no fato de os profissionais terem desenvolvido o que podemos chamar de ‘manhas’ para lidar com suas imperfeições.” (Hull, 1998, p. 557).

As Teorias da Ciência

É irrefutável a posição de destaque que a Ciência encontra na cultura, tanto na sociedade quanto no ambiente acadêmico ou intelectual. Confia-se muito mais nas afirmações científicas, talvez porque elas estejam associadas à noção de progresso ou porque elas representam a própria produção do conhecimento humano, do que em explicações que venham de outras formas de manifestação do saber.

Esta condição moveu uma considerável quantidade de filósofos a exporem as mais variadas explicações para o funcionamento das ciências. A dinâmica da Ciência, examinada, contudo, não forneceu um painel geral de funcionamento, nem uma teoria única que tenha encontrado consenso.

Como alternativas à Visão Recebida, segundo a qual as teorias científicas são sistemas axiomáticos, a partir dos anos 60 novas Teorias da Ciência foram desenvolvidas através dos trabalhos de Thomas Kuhn, N.R. Hanson, Paul Feyerabend e Stephen Toulmin, dentre outros. Essas teorias deram especial ênfase a algumas crenças já subsistentes: a) a história é fonte e, pelo menos, árbitro parcial de afirmações filosóficas sobre a ciência; b) a ciência é o exemplo mais surpreendente e bem-sucedido de racionalidade em nossa cultura e c) nenhuma filosofia da ciência é digna de crédito se não enfrentar o escrutínio empírico com base na prática científica (cf. Laudan et al., 1986).

Para estes filósofos, a ciência utiliza conjuntos de paradigmas, que são mais amplos que teorias estabelecidas, com maior domínio de aplicação e com influência em vários campos científicos. Compõem-se de conceitos de longa duração e estabelecem critérios para criação de novas teorias. Podem ser vistas, também, como um conjunto de crenças, valores e técnicas compartilhadas por uma comunidade científica. Dentre exemplos de paradigmas podem-se citar: a mecânica newtoniana, a evolução darwiniana e a teoria da relatividade.

Os paradigmas teriam uma grande capacidade de lidar com problemas científicos. Eles identificam e dirigem a solução de problemas, permitem a construção de modelos e evidenciam a capacidade de novas teorias em resolver problemas. Permitem que teorias possam ser modificadas para que possam se tornar mais poderosas no apontamento de solução de problemas.

O êxito em resolver problemas é uma das principais causas determinantes da aceitabilidade de paradigmas. Ao lado dessa capacidade, é também considerado o êxito em fazer novas previsões com grande precisão empírica. Entretanto, é frequente a afirmação de que a escolha de paradigmas nunca é feita exclusivamente a partir de dados. Há diversos fatores ditos não epistêmicos, como os metafísicos, teológicos e políticos, que têm papel igualmente determinante.

Na vigência de um paradigma ocorre um consenso acerca da natureza física, sobre técnicas e procedimentos bem como o que seria aceitável como solução e como problemas a serem enfrentados. A simples existência de dificuldades empíricas não é suficiente para que a comunidade abandone um determinado paradigma. Os juízos que os cientistas fazem sobre uma ou outra teoria em particular não são absolutos, mas sempre em relação a teorias rivais, que sempre coexistem. Há quem distinga períodos onde há prevalência de consenso em torno de um paradigma daqueles onde vigora a competição entre paradigmas. É forçoso notar que, em qualquer caso, é frequente a constatação de utilização de paradigmas em competição simultaneamente na pesquisa científica, especialmente em períodos de crise de um paradigma vigente, ou no estágio de ciência multiparadigmática.

Um paradigma começa a enfraquecer quando se depara com dificuldades empíricas persistentes, deixa de prever novos fenômenos ou perde a capacidade de identificar, dar solução ou de dirigir o enfrentamento a problemas. Contudo, a rejeição de um paradigma é sempre feita com a substituição por outro paradigma disponível.

A substituição de um paradigma em crise por outro gera tanto ganhos quanto perdas. É raro que o novo paradigma comporte todos os êxitos explicativos de seu predecessor. Porém, é importante ressaltar que um novo paradigma não é julgado pela comunidade com as mesmas medidas utilizadas no exame do seu antecessor.

Assim, é bastante controverso em quais aspectos se ganha e se perde no processo de substituição de paradigmas em relação não apenas a êxitos explicativos, mas também a generalidade, precisão empírica, tratamento de problemas e capacidade preditiva.

O Realismo e o Antirrealismo

Desde o início da década de 70, acirraram-se os debates acerca do chamado realismo científico, que seria “um conjunto integrado e híbrido de teses filosóficas a respeito de diferentes aspectos ou dimensões da ciência” (Plastino, 1995, p. 8), que partiria de algumas teses: 1) existe um mundo exterior independente do sujeito; 2) a ciência busca apresentar teorias que representem os elementos e a estrutura do mundo; e 3) o acesso epistêmico ao mundo é possível.

Em suma, pode-se considerar que, para os realistas, “as teorias científicas possuem um valor de-verdade (o verdadeiro ou o falso), uma vez que os enunciados teóricos referem a entidades externas à teoria, sendo que estas entidades realmente existem” (Silva, 1998, p. 7).

Para o realista em geral, o realismo de teorias implica no realismo de entidades. Ou seja, o fato de uma teoria ser verdadeira implica que as entidades inobserváveis postuladas por ela têm existência real. Essa imagem realista tradicional é por vezes renegada por outros realistas que não defendem a interpretação literal da linguagem científica e para os quais as entidades são conjuntos de resumos de certas características observáveis e não denotariam objetos específicos e determinados: o realismo de teorias não implica no realismo de entidades.

Para os antirrealistas, como Bas van Fraassen (cf. van Fraassen, 1980), a maior qualidade de uma teoria científica está na sua adequação empírica. Uma teoria é aceita pela sua capacidade de prever fenômenos, e não porque corresponde à verdade. Para ele, ainda, as entidades inobserváveis são como personagens de ficção literária, que podem ser reais ou não.

Realistas e antirrealistas concordam que a capacidade preditiva é uma virtude epistêmica fundamental para a aceitação de teorias científicas, conforme resposta dada pelos empiristas lógicos para a questão da confirmação de teorias.

O realista em geral, entretanto, vai além: afirma que a aceitação de uma teoria ocorre exatamente porque ela é aproximadamente verdadeira. Essa é a posição que encontramos, por exemplo, em Richard Boyd (cf. Boyd, 1973). Ou seja, a concepção de verdade é de correspondência: se uma teoria é verdadeira, o que ela descreve corresponde à realidade. Ele quer, ou se propõe, a explicar o êxito da ciência. O sucesso de uma teoria seria uma evidência de que ela é verdadeira, caso contrário teria-se uma situação de “coincidência cósmica” ou “milagre”. Além disso, há o realismo em relação às entidades inobserváveis previstas nas teorias: se a teoria é aceita, as entidades por ela postuladas existem (são reais).

Os antirrealistas apontam que, nos casos em que duas ou mais teorias possuam mesma capacidade preditiva mas que postulam entidades distintas, é impossível determinar qual delas está mais próxima da verdade. Neste caso, tratam-se de teorias subdeterminadas pelas observações.

O realista se propõe a explicar o êxito da ciência. A crença numa teoria não se esgota na crença em sua capacidade preditiva, mas deve acarretar na crença de sua verdade aproximada. Para ele, as teorias têm a capacidade de realizar descobertas (porque são aproximadamente verdadeiras) e, para isso haveria dispositivos que permitiriam ajustar os mecanismos de referência, tornando-os cada vez mais exatos.

Modelos em Ciência

A referência aos modelos, afirma grande parte dos filósofos da ciência, é crucial para o entendimento das teorias científicas. Há correntes que sustentam que as teorias devem ser consideradas como famílias de modelos. Elas constituem a “visão semântica de teorias”, que se opõem à visão “sintética” da visão recebida. Mas é preciso primeiro clarificar as duas principais formas pelas quais o termo “modelo” é empregado pelos filósofos da ciência.

A primeira refere-se a modelos como estruturas matemáticas, que permitem interpretar a linguagem utilizada na axiomatização de teorias. Nesse sentido, um modelo é qualquer coisa que satisfaça os axiomas da teoria, é qualquer sistema ao qual a teoria pode ser aplicada e seus teoremas serem verdadeiros.

A outra forma de se conceberem os modelos é considerá-los como versões simplificadas de uma teoria, ou como representações físicas. Suppe refere-se a esse tipo de modelo como “um modelo em escala, um modelo de avião, um modelo de túnel de vento etc.” (Suppe, 1989).

Outra forma de se conceber os modelos, ainda nesta segunda acepção, é a que é fornecida por Giere (cf. 1999, pp. 165-9). Para ele, um “modelo” seria um sistema idealizado e abstrato caracterizado por um conjunto definido de equações que guardaria similaridade ao sistema real na medida dada pelas “hipóteses teóricas” assumidas. Uma teoria abrangeria um conjunto de modelos e as hipóteses por eles compartilhadas e sua estrutura podem ou não serem semelhantes a processos reais. Para ele é apreciável que cientistas tendam a fazer referência a ajustes entre os modelos e o mundo real.

O Modelo Black-Scholes permitiu a rápida expansão da chamada “indústria acadêmica de pesquisas em derivativos”, à medida que sua formulação inspirou modelos de apreçamento de uma vasta gama de outros produtos financeiros e o desenvolvimento de várias características desses produtos, permitindo uma maior sofisticação na troca de risco entre investidores no mercado.

O Instrumentalismo de Friedman

No campo da Metodologia da Economia, especialmente na segunda metade do século XX, ganhou destaque o ensaio de Milton Friedman (Friedman, 1953), na qual é exposta uma visão instrumentalista para a abordagem das teorias e das hipóteses em economia.

As ideias de Friedman, centradas na tese de que os economistas não deveriam se importar com o “realismo” das hipóteses de suas teorias, geraram grande controvérsia e muitos debates metodológicos entre os economistas.

Friedman inicia seu ensaio contrapondo as noções de ciência normativa e ciência positiva. Para ele, a ciência dita normativa tem a capacidade apenas de apontar aquilo que seria desejável para os sujeitos, sem qualquer caráter científico. A ciência propriamente, objetiva, seria aquela isenta da visão de mundo do sujeito cognoscente, axiologicamente neutra, à qual a Economia deveria se ajustar ou se comportar:

“A tarefa dessa economia positiva é a de provar um sistema de generalizações passível de ser utilizado para fazer previsões corretas acerca das consequências de qualquer alteração das circunstâncias. O desempenho de uma tal economia será ajuizado em termos da precisão e do alcance das previsões e em termos do ajuste que haja entre tais previsões e a experiência.” (Friedman, 1981, p. 164).

A realidade produziria regularidades que seriam capturadas pelas teorias científicas. E o objetivo das teorias científicas seria realizar previsões:

“Considerada um corpo de hipóteses substantivas, a teoria deve ser julgada por meio de seu poder previsivo com relação à classe de fenômenos que pretende ‘explicar’. Somente a prova factual poderá demonstrar se ela é ‘certa’ ou ‘errada’ ou, melhor dizendo, ‘aceita’ como válida ou ‘rejeitada’.” (Friedman, 1953, p. 8).

Nesse ponto pode-se identificar o posicionamento de Friedman enquanto instrumentalista e antirrealista em relação às teorias científicas. Contudo, ele prossegue em seu artigo afirmando que os testes de validade das previsões de uma teoria difere dos de suas hipóteses, pois o “número de fatos observados é invariavelmente infinito ao passo que o número de hipóteses possíveis é infinito.” (Friedman, 1981, pp. 169-70).

Friedman propõe que a escolha de hipóteses deve ser feita com base na simplicidade e na capacidade explicativa:

“Uma hipótese é importante quando ‘explica’ muito com base em pouco, ou seja, quando está em condições de delimitar, por abstração, partindo da massa de circunstâncias complexas e pormenorizadas que cercam o fenômeno a explicar, uma classe de elementos comuns e fundamentais, formulando previsões válidas cujo alicerce é, justamente, apenas essa classe de elementos cruciais.” (Friedman, 1981, pp. 174).

Essa visão pode ser considerada como antirrealista de hipóteses à medida que sejam consideras como realistas as hipóteses que abarcam todas as variáveis relevantes. Para ele, todas as boas teorias econômicas idealizam e simplificam em maior escala.

Friedman então afirma que “para que seja importante, uma hipótese deve ser descritivamente falsa em seus pressupostos”. Esta declaração, aparentemente extravagante, gerou inúmeras controvérsias e críticas entre os economistas da época.

Entretanto, considerando que as teorias econômicas são sobretudo utilizadas pelos agentes econômicos, que buscam racionalmente maximizar o retorno esperado de seus investimentos, é um aspecto essencial que uma teoria demonstre rejeitar aspectos impossíveis de serem assumidos conscientemente, “(...) como supor que jogadores de bilhar calculem o ângulo e o impulso das bolas de bilhar sempre que as coloquem na caçapa.” (Blaug, 1993, p. 142).

“Uma teoria ou os seus ‘pressupostos’ não podem ser cabalmente ‘realistas’, no sentido descritivo imediato, que tão frequentemente se atribui ao termo. Uma teoria completamente ‘realista’ do mercado do trigo teria de incluir não apenas as condições diretamente subjacentes à oferta e à demanda de trigo, como, ainda, indicações relativas à moeda ou aos instrumentos de crédito usados nos pagamentos; teria de incluir dados a respeito dos comerciantes de trigo, cor dos olhos e dos cabelos de cada comerciante, os seus antepassados, a sua educação, as pessoas da família, seus respectivos antecedentes e sua educação, e assim por diante; teria de incluir informes a respeito do tipo de solo em que o cereal foi cultivado, de suas características físicas e químicas, do estado geral do tempo na época de desenvolvimento das plantas, dos traços típicos do pessoal encarregado de cuidar da fazenda e do consumidor que, afinal, utilizará os grãos; e assim por diante; indefinidamente.” (Friedman, 1981, pp. 189-90).

A função da ciência instrumental é produzir modelos que não tenham a pretensão de descrever o mundo, mas de isolar aquilo que é relevante para a resolução de problemas. Os modelos econômicos devem ser avaliados somente com base na sua capacidade preditiva, única maneira, conforme Friedman, de avaliar a cientificidade e adequação dos modelos econômicos.

A verificação empírica

Devido à sua extrema importância econômica, a fórmula apresentada por Black & Scholes foi submetida a uma grande quantidade de testes empíricos desde sua publicação. O que estes testes indicam, entretanto, não é exatamente a eficácia do modelo, mas a validade de suas hipóteses fundamentais (cf. Copeland & Weston, 1988).

Os dois primeiros importantes testes do modelo foram feitos por Black & Scholes (1972) e Galai (1977). Eles testaram a possibilidade de se obter retornos acima da taxa de juros livre de risco através da estratégia de comprar opções subavaliadas e vender opções superavaliadas. Black & Scholes utilizaram dados do mercado de balcão organizado, enquanto que Galai usou dados da Chicago Board Options Exchange. Os estudos indicaram que é possível obter tais lucros sem, no entanto, garantir que eles ocorreriam sempre.

Posteriormente, Garman (1976) testou estratégias para ter ganho sem risco — “arbitragem” — com opções, através de um procedimento de cálculo que possibilita encontrar possibilidades de arbitragem em qualquer situação de mercado. O sucesso observado nos testes indicou que o Modelo Black-Scholes é eficiente em apontar situações de ganho sem risco.

Os aprimoramentos

Algumas das hipóteses do Modelo Black-Scholes foram testadas empiricamente e deram ensejo a “aprimoramentos”.

Outros autores trabalharam o relaxamento das hipóteses do modelo Black-Scholes. Uma síntese comparativa dos primeiros estudos pode ser consultada em Smith (1976).

Importantes aperfeiçoamentos ao modelo tratam de volatilidade.

A volatilidade é a medida da variação dos preços de um ativo financeiro. É o desvio padrão das mudanças do logaritmo dos preços, expressos numa taxa anual. Aplicado aos derivativos, evidencia o grau de dispersão das variações ocorridas no preço (cf. Sandroni, 2005, p. 886).

A volatilidade constitui o único parâmetro do modelo que não é diretamente observável no mercado (cf. Hull, 1998, p. 557) e, conforme Mendes & Duarte (1999), é hoje um dos conceitos mais importantes em Finanças.

Em 2003, Robert F. Engle recebeu o Prêmio Nobel em Economia pelos estudos em cálculo de volatilidades que resultaram no modelo GARCH (Engle, 1982).

Conclusão

O Modelo Black-Scholes propõe uma fórmula para calcular o valor do preço de opções do tipo europeia a partir de informações de mercado e de um parâmetro que não é diretamente observável: a volatilidade.

A função do modelo, porém, não é determinar o que a fórmula permite calcular: o prêmio das opções. Foi visto que a incapacidade preditiva do modelo, devido às hipóteses subjacentes aos mercados e ao comportamento de ações e opções, é esperada e normalmente constatada nos estudos e aplicações. Essa característica, portanto, não abalou o sucesso e a imensa aceitação que o modelo teve no âmbito das Finanças.

Os avanços proporcionados pelas limitações impostas pelas hipóteses adotadas pelo modelo fomentou a “indústria acadêmica de pesquisa em derivativos” e pode ser considerado o maior trunfo de Black-Scholes.

Um mercado somente pode se expandir se o conhecimento dos agentes a seu respeito aumentar. Os modelos de apreçamento têm como função primordial tornar mais transparente o processo de formação de preços em função de outros parâmetros também disponíveis no mercado. Nas palavras de Hull (1998, pp. 560-1), “na prática, um modelo de apreçamento de opções não passa de uma ferramenta para compreender o ambiente de volatilidade e apreçar ativos sem negociação de modo consistente com os preços de mercado de títulos ativamente negociados.”

No plano teórico, entretanto, as bases lançadas pelo Modelo Black-Scholes possibilitaram a expansão dos instrumentos financeiros de forma rápida e segura.

O que ocorre no plano empírico é que o Modelo Black-Scholes cria a sua própria realidade através da crença dos agentes ou pela normatização que o próprio modelo fez surgir. Os agentes preferem acreditar no modelo para que nenhum deles “erre sozinho” ao deixar de utilizá-lo. E a normatização se dá pela forma amplamente divulgada que o modelo passou a ser usado, em grande parte atribuída aos avanços tecnológicos da época (calculadora, bolsa de Chigaco).

O aspecto da determinação da volatilidade pode ser compreendida como uma “proteção” do modelo às inadequações empíricas que possam ensejar questionamentos teóricos. Ela guarda uma grande gama de imperfeições advindas do desajustamento do modelo à realidade apresentada, por exemplo, nas hipóteses assumidas em sua formulação. Na impossibilidade ou na dificuldade teórica de se relaxar estas hipóteses, procura-se adequar a determinação da volatilidade através de experiências numéricas e empíricas, como a adoção de uma “matriz de volatilidade” ou modelando a própria volatilidade de forma estocástica.

Preços de mercado são definidos pela livre negociação. Um primeiro passo para que um modelo de apreçamento não tenha aceitabilidade seria a característica de determinação objetiva e inflexível de preços “corretos” de negociação. Daí decorre o que se poderia denominar “contradição dos modelos de apreçamento”: ter grande aceitabilidade apesar de não se constatarem objetivamente em testes empíricos. E essa contradição existiria para evitar outra: a de se ter livre negociação de preços a despeito de existirem preços corretos e determinados para eles devido a algum modelo de grande aceitação.

Referências Bibliográficas

Black, F. & Scholes, M. (1972) - “The valuation of option contracts and a test of market efficiency”, Journal of Political Economy, Chicago, v.27: 497-505.

— (1973) - “The pricing of options and corporate liabilities”, Journal of Political Economy, Chicago, v. 81: 637-59.

Blaug, M. (1993) – Metodologia da Economia, Edusp, São Paulo.

Boyd, R. (1973) - “Realism, underdetermination and a causal theory of evidence”, Nous 7: 1-12.

Copeland, T. E. & Weston, J. F. (1988) - Financial theory and corporate policy, Addison-Wesley, Boston, 3ª ed.

Engle, R. F. (1982) - “Autoregressive conditional heteroscedasticity with estimates of the variance of United Kingdom Inflation”, Econometrica 50: 987-1007.

Friedman, M. (1953) – “The metodology of positive economics” in Essays in positive economics, Chicago University Press, pp. 3-43.

— (1981) – “A metodologia da economia positiva”, Multiplic, v.1 , n.3, São Paulo, pp. 163-200.

Galai, D. (1977) - “Test of market efficiency and the Chicago Board Options Exchange”, Journal of Business 50, Chicago: 167-97.

Garman, M. B. (1976) - “An algebra for evaluating hedge portfolios”, Journal of Financial Economics 3, Rochester: 403-27.

Giere, R. N. (1999) - Science without laws, Chicago Press, Chicago.

Hull, J. (1998) - Opções, futuros e outros derivativos, BM&F, São Paulo, 3ª ed.

Kuhn, T. S. (2003) – A estrutura das revoluções científicas, Perspectiva, São Paulo, 7ª ed.

Laudan, L. et al. (1986) - “Scientific change: philosophical models and historical research”, Synthese 69: 141-223. (Tradução brasileira publicada pela revista Estudos Avançados-USP 19 (1993): 7-89.

Markowitz, H. M. (1952) - “Portfolio selection”, Journal of Finance, Berkeley, v. 7.

Mendes, B. V. M. & Duarte Jr., A. M. (1999) - Modelos estatísticos aplicados ao mercado financeiro brasileiro, SINAPE.

Merton, R. C. (1997) - “Applications of option-pricing theory: twenty-five years later”, Nobel lecture: 85-118.

Miller, M. & Modigliani, F. (1958) - “The cost of capital, corporation finance and the theory of investment”, American Economic Review, Pittsburgh.

Plastino, C. E. (1995) - Realismo e anti-realismo acerca da ciência: considerações filosóficas sobre o valor cognitivo da ciência, Tese de Doutorado na FFLCH-USP.

Robbins, L. (1935) – An Essay on the Nature and Significance of Economic Science, MacMillan, Londres, 2ª ed.

Sandroni, P. (2005) - Dicionário de economia do século XXI, Record, Rio de Janeiro.

Sharpe, W. F. (1964) - “Capital asset prices: a theory of market equilibrium under conditions of risk”, Journal of Finance, Berkeley, v. 19: 425-42

Silva, M. R. (1998) - “Realismo e anti-realismo na ciência: aspectos introdutórios de uma discussão sobre a natureza das teorias”, Revista Ciência & Educação, 5(1).

Smith, C. (1976) - “Option pricing: a review”, Journal of Financial Economics 9, Rochester: 3-54.

Suppe, F. (1989) - The semantic conception of theories and scientific realism, University of Illinois.

van Fraassen, B. (1980) - “Arguments concerning scientific realism”, The scientific image, Oxford University Press.


Autor


Informações sobre o texto

Este texto foi publicado diretamente pelo autor. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi.

Comentários

0

Livraria