quarta-feira, 2 de dezembro de 2009

Teorias da Consciência






No século XX, mas especificamente em 1980, a problema que girava em torno da distinção entre mente e consciência não parecia ser mais a centralidade da preocupação dos filósofos da mente. Havia grande entusiasmo, por parte destes filósofos, em virtude das atuais perspectivas abertas pela inteligência artificial e a possibilidade da simulação mecânica das atividades mentais humanas através de mentes artificiais. A temática acerca da consciência e seus estágios não faziam mais parte da agenda dos funcionalistas. Para eles processamento de informação e experiência consciente era dissociável.


Porém, seria possível simular a cognição humana sem simular ao mesmo tempo seu aspecto consciente? Não seria essa uma diferença essencial entre mentes artificiais e humanas? Estas foram às questões que começaram a ser formuladas no final da década de 1980. Tudo se passava como se a simulação da atividade mental humana fosse uma tarefa perfeitamente exeqüível, dependendo apenas dos avanços tecnológicos. Restaria apenas saber o que tornaria um estado mental algo consciente, e, para isso, seria necessário responder algumas questões que não deixavam de causar perplexidade: O que é consciência? Que tipo de papel desempenha essa na explicação da cognição humana? Existe cognição sem consciência? Que tipo de papel desempenha essa na explicação da cognição humana? Existe cognição sem consciência? Terá a consciência um papel causal na produção da cognição e do comportamento? Podemos tratar a questão da consciência como um problema científico, isto é, como um problema empírico (cf. TEIXERA, 2006, p. 153)?


A partir dessas questões, uma profusão de teorias acerca da natureza da consciência começou a proliferar na filosofia da mente. De teoria da mente fora renomeada por teoria da consciência, para retornar rapidamente para uma equiparação entre consciência e mente, num movimento quase imperceptível. Esse movimento se inicia no final dos anos de 1980, quando se enfatizou a necessidade de elaborar uma teoria da consciência por acreditar-se que uma teoria da mente não seria suficiente para explicar a natureza da experiência consciente. Os filósofos da mente foram acusados de ficar girando em círculos, num exercício especulativo, árido e inútil, aonde nunca se chega a qualquer tipo de consenso que servisse de ponto de partida para a elaboração de algum tipo de teoria (cf. TEIXERA, 2006, p. 154).


Os teóricos da consciência são: os naturalistas, estes acreditam poder explicar na natureza da consciência através de teorias computacionais; os não- naturalistas, para estes qualia (qualidade subjetiva) e experiências conscientes são intratáveis do ponto de vista de qualquer tipo de teoria neurocientífica; novos misterianos, estes descartam a hipótese naturalista, mas sustentam que desvendar a natureza da consciência constitui um problema cuja complexidade ultrapassa a capacidade cognitiva humana. Os naturalistas rejeitam uma análise conceitual da consciência, pois, segundo eles temos que elaborar teorias específicas de processos mentais, isto é, teorias acerca da natureza da atenção, da memória, dos processos cerebrais subjacentes à produção do sono e da vigília, assim quando desvendarmos esses correlatos neurais estaria de posse de uma teoria da consciência. Porém, o que de mais importante resultou dessas manobras teóricas foi à dissociação das fronteiras entre filosofia da mente e neurociência.


Essa quebra de fronteiras entre filosofia da mente e neurociência resultou diversas hipóteses acerca dos correlatos neurais da consciência. De todas essas hipóteses, as que se tornaram mais populares foram as de Edelman e as de Crick e Koch. Crick, ganhador do prêmio Nobel, popularizou-se no seu livro The Astonishing Hypothesis (A hipótese assombrosa), publicada em 1994. Nesse livro Crick chamou de hipótese assombrosa a possibilidade de explicar a natureza de nossos pensamentos, alegrias, tristezas e outras emoções como resultando da atividade de alguns grupos de neurônios de nosso cérebro. Crick supôs que a chave para desvendar o mistério da consciência estaria no estudo dos mecanismos mecânicos neurais subjacentes à organização da percepção visual. A hipótese que ele desenvolveu baseou-se no fato de que a consciência visual esta correlacionada com uma oscilação, em 40 Hz, das camadas cinco e seis do córtex visual primário. Ou seja, quando o córtex visual reage à estimulação, alguns grupos e neurônios disparam de forma sincronizada (cf. TEIXERA, 2006, p. 155-156).


A teoria de Edelman (1987, 1989, 1992) não se popularizou tanto como a de Crick e Koch, embora tenha atraído a atenção da neurociência e cientistas cognitivos. Para a formulação de sua teoria, o darwinismo neural, Edelman partiu de cinco idéias básicas acerca do funcionamento cerebral: a primeira se baseia na impossibilidade do genoma humano especificar inteiramente a estrutura do cérebro; a segunda idéia diz que os cérebros dos indivíduos apresentam diferenças em termos de estrutura e conectividade; a terceira idéia diz que da mesma maneira que pressões ambientais selecionam membros mais aptos numa espécie, as informações que entram no cérebro selecionam grupos de neurônios reforçando a conexão entre eles; na quarta idéia, grupos de neurônios podem desempenhar múltiplos papeis. Detectores de vermelho são ativados quando as coisas vermelhas estão na minha frente. Contudo, eles podem também ser ativados para reconhecer rosa ou púrpura; em quinto e último lugar, a perda de neurônios não implica, necessariamente, na perda de capacidade funcional do cérebro; salvo quando essa perda é massiva como no caso, por exemplo, da doença de Alzheimer (cf. TEIXERA, 2006, p. 156).          


   As teorias de Crick e Koch e a de Edelman são consideradas marcos importante nas tentativas de elaboração de uma abordagem naturalista da consciência. Contudo, nelas não encontramos uma explicação da natureza da experiência consciente, ou seja, elas não explicam em última análise, torna um estado mental algo consciente. Crick e Koch identificavam a experiência consciente como à organização da percepção buscando uma explicação de sua unidade em mecanismos neurais subjacentes. No caso de Edelman, encontramos uma identificação implícita entre consciência e atenção. Ambas são teorias neurológicas da mente e não da consciência. Não poderíamos esperar de uma abordagem naturalista uma explicação do que é consciência, pois, essa não é a proposta de Edelman e nem de Crick e Koch. Mas poderíamos esperar uma explicação de como e porque a consciência afeta a cognição, ou seja, que diferença faz ter experiências conscientes (cf. TEIXERA, 2006, p. 157).   


Os filósofos ressaltam dois grandes desafios por uma teoria da consciência: primeiro é achar que uma teoria da mente é automaticamente da consciência (como querem os naturalistas influenciados pelos funcionalistas); a segunda é escapar da especulação filosófica estéril. Exemplificamos estes desafios com o seguinte caso: Num jogo de xadrez em que um dos competidores seja uma máquina (Deep Blue), não reconhecemos nada parecido com a cognição humana, apesar de ele ter sido construído por uma equipe de engenheiros e programadores e, do fato de seu programa registrar milhares de jogadas e soluções para o problema do xadrez e executadas por seres humanos nas últimas décadas. A inconsciência de Deep Blue torna sua psicologia totalmente vazia.


 Diante desse exemplo, dirão os funcionalistas: que a inteligência e a consciência podem ser dissociadas, devido à consciência ser apenas efeito colateral. Os naturalistas dirão: que a consciência é apenas um efeito colateral. Flanagam afirma: que a máquina não tem experiências conscientes (fato desconsiderado pelos naturalistas e funcionalistas). Ao fim do jogo o homem se felicita pela vitória ou se entristece pela derrota, mas a máquina é neutra a esboçar sentimentos (modelo contra intuitivo da cognição humana). A consciência é o que difere nossa vida mental da máquina e dos insetos, afirma Flanagam, devido à capacidade de sentir prazer, dor, alegria e sofrimento ser essencialmente patrimônio do ser humano e de seu sistema evolutivo e cultural. Porém, para explicar tal afirmação necessitaríamos de uma teoria da consciência.


O caráter da consciência é o que nos permite ver o filme do mundo em technicolor. Mic Ginn (1989) e Sagan alertam para o risco envolvido nas tentativas de formulação de teorias da consciência. Reconhecer a existência, a ontologia própria da experiência consciente pode levar-nos ao dilema de não podermos situá-la em nenhum quadro conceitual compatível com uma visão científica do mundo. Por outro lado, rejeitar a existência da consciência pode levar-nos a um empobrecimento teórico inaceitável. Haverá alguma estratégia teórica e metodológica que nos livre desse dilema? A alternativa é uma nova abordagem à cognição que se desenvolveu na década de 1990, chamada neurociência cognitiva. Consolidou-se a partir dos avanços nas técnicas de neuroimagem, permitindo uma abordagem empírica da natureza da experiência consciente.


Uma primeira incursão fora desbravada por Dennett, Calvin e Baars: para Dennett, o problema da consciência resulta dos pseudo-problemas ou de uma mitologia filosófica e um dos principais mitos são: no teatro cartesiano haveria um intérprete que existiria no consciente e que por assistir as cenas do teatro daria origem a consciência reflexiva ou autoconsciência, o significador também como interprete que ordenaria as cenas que se passam neste teatro, tornando-as consistentes e coerentes, e múltiplas camadas que nosso cérebro como uma máquina híbrida ou de arquitetura computacional mista, isto é, várias máquinas acopladas a uma máquina serial (virtual). É um erro pensar que nosso fluxo da consciência seja unívoco, pois, ele é errático e fragmentário. Dennett[1] nos diz que a consciência seria um processo que se assemelha à fama, isto é, cada pensamento teria seu momento de holofotes (fama) e cada fragmento da narrativa entraria na máquina serial por um curtíssimo intervalo de tempo.             


   Para Calvin, o cérebro funcionaria como uma máquina darwiniana. A sinfonia cerebral, isto é, a atividade mental como organizadora e ordenadora (maestro) do comportamento dos organismos no meio ambiente. Assim surgiriam vários cenários na mente e esta produziria um novo cenário ganhador que resultaria de um processo semelhante ao de uma mutação genética de espécies (máquina darwinista). Para Baars, o espaço global de trabalho, o cérebro funcionaria como uma central de comutação de informações entre os vários processos inconscientes executados por módulos ou circuitos especializados que estão no cérebro. A realidade confirmada por evidências neurobiológicas (áreas sendo ativadas no cérebro “neuroimagem”) significando que processos conscientes são detectáveis e ocorrem em lugares específicos do cérebro.


Os três modelos chamam a atenção para aspectos importantes do funcionamento mental. A teoria das múltiplas camadas de Dennett, a recombinação mutante dos cenários possíveis de Calvin e o global workspace de Baars revivem um problema que ainda hoje inquieta os neurocientistas: como é possível que um dispositivo com arquitetura paralela, como parece ser o cérebro, possa lhe permitir passar do paralelo para o serial? Quais os mecanismos cerebrais responsáveis pela integração da informação? A busca de uma solução para esse problema já ocupou neurocientistas e psicólogos famosos como, por exemplo, K. Lashley, que, em 1951, publicou um artigo clássico sobre o tema, The Serial Order of Behavior (A ordem serial do comportamento). Mas nenhuma solução definitiva parece ter sido ainda encontrada. A construção de modelos (ou simulações computacionais) que operem a passagem do paralelo para o serial, integrando informações adequadamente e na mesma velocidade que o cérebro o faz apresentar-se como um desafio preliminar na busca da solução para esse problema. Um desafio que, uma vez superado, precisará ainda ser confirmado no que diz respeito à sua plausibilidade neurobiológica (cf. TEIXERA, 2006, p. 164).   


A ciência da mente começou a passar por significativas transformações quando as atenções saíram do modelo computacional da mente para o cérebro como substrato biológico da cognição e da consciência. Essas transformações começaram a partir dos anos de 1990. Até essa época, a idéia que predominava era a de que a mente seria o software do cérebro (ou que a relação entre psicologia e neurociência seria o mesmo que a relação entre software e hardware, respectivamente). Onde e como esse software seria implementado constituía apenas um detalhe técnico paras os funcionalistas (cf. TEIXERA, 2006, p. 165).   


A grande responsável pela volta ao estudo do cérebro como substrato da consciência e da cognição foi à neurociência cognitiva. Esta nova disciplina propunha uma reconsideração das bases cerebrais da cognição e da consciência definindo-se como resultado de uma colaboração intensa entre neurociência e ciência cognitiva[2]. O fato é que hoje os contornos da neurociência cognitiva são bem nítidos. Ela é, conforme Teixeira, uma estratégia metodológica. Vários foram os fatores que contribuíram para a sua formação. Tais fatores são, por exemplo, uma aproximação entre neuropsicologia clínica e a psicologia cognitiva no estudo dos efeitos das lesões cerebrais; a observação sistemática da correlação entre comportamento explícitos de animais e sua atividade neural. Ajunte-se a isso o fato de que a neurociência cognitiva passou a se servir das novas técnicas de neuroimagem que permitiram, no caso dos seres humanos, o estudo das atividades cerebrais in vivo. Teixeira afirma que a neuroimagem é um dos pilares da ciência cognitiva. Segundo ele, desde a descoberta do raio-X a e do encefalograma (EEG) o aparecimento de novas técnicas, como o PET (Positron Emission Tomography) [3] e o MRI[4] (Magnetic Resonance Imaging) abriram novas portas para que se possam estudar as bases biológicas e cerebrais do comportamento dos cérebros das pessoas vivas, possibilitando uma progressiva integração entre psicologia experimental e neurociência.


Os resultados que essas novas técnicas têm dado resultados surpreendentes e inauguram uma nova era na neurociência. Isso porque além de modificar a nossa concepção do funcionamento cerebral, as técnicas de neuroimagem abriram novas perspectivas para o estudo da natureza da consciência. O estudo da atividade cerebral de pacientes com anomalias funcionais como amnésia profunda ou acalculia (incapacidade de efetuar operações aritméticas), por exemplo, ganhou nova dimensão. Reconhecia-se que explicar a natureza desses distúrbios pressupunha explicar em que sentido eles alteravam os aspectos da vida mental consciente de seus portadores. Assim, firmamos que as técnicas de neuroimagem vêm adquirindo importância crescente na medida em que através delas se começa a estabelecer uma conexão entre alterações de consciência e alterações no cérebro (cf. TEIXERA, 2006, p. 168).   


A neuroimagem, conforme Teixeira põe em relevo, é uma ferramenta de que dispomos para o estudo empírico da consciência. Na verdade, as técnicas de neuroimagens, acabam por integrar várias outras metodologias no estudo empírico da consciência. Segundo Teixeira, essa metodologia integradora, sobretudo quando aplicadas a sujeitos humanos com anomalias funcionais, tem como ponto de partida o reconhecimento da dimensão própria e da experiência consciente e seu papel na cognição. A neurociência cognitiva parte do reconhecimento dessa dimensão para tentar encontrar suas bases neurais e suas relações com o comportamento. Nesse sentido, seu pressuposto metodológico caminha em direção inversa ao reducionismo ou às teorias da identidade, sem, entretanto, romper com uma proposta materialista. Estratégias identitáristas ou reducionistas tentam explicar a cônscia negando a existência e a especificidade desse tipo de fenômeno. Para a neurociência cognitiva explicar não é, necessariamente, reduzir. As teorias da mente não poderiam cumprir o papel de serem teorias da consciência, embora essas últimas envolvam necessariamente a investigação do sujeito mental e suas bases neurofisiológicas.


Com a ênfase que a neurociência cognitiva deu ao estudo cérebro ela acabou pondo em xeque o funcionalismo. Isso se deve ao fato de que, nas últimas décadas, segundo Teixeira, a análise da noção de função em filosofia da mente tem se mantido sistematicamente atrelada à doutrina funcionalista professada pelos partidários da inteligência artificial. Nesse contexto a noção de função esteve dissociada de qualquer tipo específico de realidade biológica. Assim, forma e função são visto como sendo totalmente independentes. Daí o autor exemplifica afirmando que não é o material de que é feito um tabuleiro de xadrez, nem tampouco seu tamanho ou formato que definem esse tipo de jogo, mas a função que lhes é atribuída. A madeira e o marfim seriam alternativas físicas válidas, a partir das quais se podem construir peças de um jogo de xadrez. Mas, problematiza Teixeira, não seria um anacronismo utilizar esse mesmo raciocínio no caso do funcionamento mental? Até que ponto as características específicas do material do qual é composto o cérebro determina as funções que esse pode desempenhar? Os progressos nas tentativas de mapeamento do cérebro têm levado a uma revisão crescente do pressuposto da independência das funções cerebrais às arquiteturas e materiais específicos que a instanciam (cf. TEIXERA, 2006, p. 170).   


Os pioneiros do funcionalismo, como Putnam e Fodor, por exemplo, sustentam que um mesmo estado mental pode ser reproduzido por diferentes estados cerebrais e que, inversamente, um mesmo estado neurológico pode produzir vários estados mentais. O que eles não especificam, contudo, é o que devemos compreender por um mesmo estado mental ou por um mesmo estado neurológico. Teixeira exemplifica nos convidando para considerar o estado “estar com fome”. Putnam sustentaria que tanto um ser humano quanto um peixe estariam num mesmo estado neurológico, pois seus sistemas nervosos apresentam grandes diferenças. Porém, o problema que permanece é o seguinte: ambos os estados mentais, do ser humano e do peixe, ao ter fome, seriam funcionalmente equivalentes? A resposta a esse problema é a seguinte. Se se considera “estar com fome” à produção e envio de algum sinal para o cérebro do organismo que gere, por sua vez, o desejo de comida, então, a fome do ser humano e a fome do peixe podem ser vistas como funcionalmente equivalentes.  Entretanto, a própria noção de equivalência funcional pode ser questionada. Não dependeria ela de um tipo específico de perspectiva adotada. Dessa forma, por exemplo, uma xícara é funcionalmente equivalente a um copo se os considerarmos a partir da perspectiva de que sua função primeira é “recipiente para beber água”. Se atribuirmos à xícara ou ao copo a função de ser “recipiente para conter água”, eles se tornam funcionalmente equivalentes a um regador que também tem a função de “ser um recipiente para conter água”. Entretanto, regar um canteiro de flores com um copo ou com uma xícara e não com um regador é algo inadequado. Dessa forma, a equivalência funcional requer uma contextualização que define a atribuição de função (cf. TEIXERA, 2006, p. 170).   


Assim, considerar a fome do peixe e a fome do ser humano funcionalmente equivalente pressupõe uma contextualização prévia que define a atribuição de função. A fome de ambos produz, em cada um, comportamentos distintos. Além do mais os estímulos que podem causar a fome num ser humano são distintos daqueles podem causar fome num peixe. As opções de alimento para um ser humano são também distintas daquelas que podem satisfazer um peixe. Nesse sentido, a fome do ser humano e a fome do peixe só podem ser consideradas funcionalmente equivalentes se consideradas a partir de um contexto específico. Esse contexto abstrai as suas peculiaridades para torná-las funcionalmente equivalentes. Esse tipo de abstração teria sido até agora o grande pressuposto da abordagem funcionalista. Esse pressuposto, contudo, por levar a ignorar as peculiaridades resultantes dos diferentes tipos de implementação física ou neurológica, estipula, apressadamente, equivalências funcionais entre estados mentais distintos. Estipula também que estes estados mentais podem ser tratados independentemente de quaisquer peculiaridades da base física na qual eles podem ser instanciados. Essa, portanto, teria sido a manobra teórica feita pelos funcionalistas. Com ela eles propuseram o modelo computacional de mente e assim se passou a ignorar peculiaridades neurológicas ou peculiaridades de forma, que estariam envolvidas na explicação de funções mentais. Com isso, ajunta Teixeira, ter-se-ia esquecido, por exemplo, que no cérebro há uma variedade de neurotransmissores que produzem efeitos variados, diferenças entre células que executam funções específicas e uma grande variedade de sistemas com suas especificidades. Ademais, teriam esquecido também que são as características físicas do cérebro a chave para explicar como e por que ele pode desempenhar certas funções (cf. TEIXERA, 2006, p. 171-172).    


Defensores mais radicais dos estudos do cérebro afirmam que as teorias funcionalistas não têm mais tanta validade. Para Teixeira, não resta dúvida de que modelar a cognição ou descobrir os mecanismos que produzem a consciência através de um conjunto de leis lógicas totalmente independentes do mecanismo físico que a implementa constitui uma estratégia inviável. Essa parece ter sido a lição imediata da neurociência cognitiva e do movimento em direção à redescoberta do cérebro que se iniciou na década de 1990. Teixeira continua indagando se a neurociência cognitiva poderá abandonar completamente a utilização de modelos computacionais para estudar o cérebro. Segundo ele, certamente a resposta é negativa. Porque não são os modelos computacionais que devem ser abandonados, porém a pretensão de, a partir deles, podermos construir réplicas completas de atividades cognitivas humanas (173).


De resto, Teixeira afirma que não se pode mais estudar a mente sem estudar o cérebro, pois se acredita cada vez mais que suas características seriam a chave para a compreensão da natureza da cognição e da consciência. Assim sendo, a neuroimagem, revelando localizações específicas ou revelando a existência de um sistema integrado, nos permite apenas inferir a existência de uma correlação ou uma correspondência entre dois tipos de séries: uma delas constituídas de eventos mentais e outra de eventos cerebrais. Ao que Teixeira chamou de paralelismo psicofísico. Daí resta o problema de saber se algum dia, a partir desses eventos psicofísicos a neuroimagem poderá explicar como eventos físicos causam eventos subjetivos. Noutros termos: o grande passo que se espera é saber como estruturas cerebrais podem gerar consciência.   



















[1] Memes são as unidades de informação fornecidas pela cultura e processadas pelo cérebro. Segundo Dennett, como uma doença contagiosa que se espalha em um processo epidêmico. O cérebro como uma máquina virtual que entrelaça episódios produzidos pelo pandemonum competitivo dos inúmeros circuitos em paralelo
[2] Segundo Teixeira, nos anos de 1990 havia uma oscilação no modo de definir a neurociência cognitiva. Esta oscilação consistia em saber se a neurociência cognitiva seria uma parte da ciência cognitiva que se ocuparia de modelos inspirados na neurociência ou se seria uma parte da neurociência com uma preocupação voltada para as bases neurológicas dos processos cognitivos (cf. p. 167).
[3] O PET baseia-se na possibilidade de “marcar” o oxigênio e a glicose de forma que possamos então “seguir o seu caminho no cérebro”. A “marca” é um átomo radioativo que emite pósitrons, ou seja, partículas semelhantes aos elétrons com a diferença de que, ao contrário desses últimos, pósitrons tem uma carga positiva. Injeta-se na veia da pessoa, juntamente com água ou com glucose, átomos radioativos de oxigênio. A marca radioativa segue, então, através da corrente radioativa até chegar no cérebro. Os pósitrons se chocam com os elétrons que estão nas moléculas que se encontram dentro do cérebro até que as cargas positivas e negativas se anulem mutuamente. Nesse processo acontece uma emissão de raios gamas que atravessam o crânio do indivíduo podendo, assim, ser detectados por sensores que, por sua vez, podem produzir uma imagem do cérebro em funcionamento, pois a glucose e o oxigênio se acumulam naquelas áreas do tecido cerebral onde a atividade neural é mais intensa. 
[4] O MRI não necessita de injeções para produzir um contraste. Sua estratégia consiste em medir as mudanças na concentração de oxigênio no sangue que irriga o cérebro. O oxigênio é transmitido pela hemoglobina e o MRI se baseia no fato de que a quantidade de oxigênio presente numa área afeta as propriedades magnéticas da hemoglobina. Essas propriedades magnéticas podem ser monitoradas na presença de um campo magnético onde os núcleos dos átomos se alinham como se fossem magnetos em miniatura. Quando são bombardeados e tirados para fora desse alinhamento através de ondas de rádio, esses átomos emitem sinais de radio. Esses sinais de radio expressam a quantidade de oxigênio transportado pela hemoglobina, o que nos permite saber quais são as regiões do cérebro que estão ativas num determinado momento (cf. p. 168)   

3 comentários:

Anônimo disse...

Muito interessante. Mas falar de consciência sem falar de António Damásio...

Anônimo disse...

Texto muito bom. É de sua autoria? Não vi o nome do autor. Abraços

veravassouras disse...

O fato que estes cientistas nunca tocam, por medo, preguiça ou conveniência é o envenenamento do cérebro (mente, alma, que seja), por meio da alimentação modificada quimicamente. Além disso, há o problema da sugestão diária, criando conflitos artificiais entre os seres humanos, aproveitando-se de sua incapacidade cognitiva(má alimentação, contaminação por agrotóxicos, industrialização e sugestões subliminares desenvolvidas pela imprensa e pela academia) o que induz à ausência de experiências individuais e empatia com o coletivo. Ora, ao invés de discutir teorias sobre a consciência, não seria mais produtivo verificar as razões de nos mantermos comandados por indivíduos não só inconscientes, como bárbaros? A ciência não existe para a evolução humana na busca da sapiência? Que neurologia é esta que não procura as causas e continua se preocupando exclusivamente com os efeitos da entropia?