sábado, 27 de abril de 2013

Evolução e Informação


Basicamente existem 2 definições de informação: a informação de kolmogorov e a de Shannon.

A informação de kolmogorov mede a informação numa sequência de símbolos e corresponde á menor descrição dessa sequência. Uma duplicação com divergência além de dar origem a um gene novo, pode aumentar o tamanho da descrição da sequência do genoma, assim como a tetraploidia nas plantas. 

Temos ainda a teoria da informação de Shannon, que é uma teoria probabilística. Shannon equacionou informação com diminuição na incerteza: I = -log2 (p), onde p é uma probabilidade. Esta definição é normalmente usada pelo William Dembski e é de notar que normalmente os seus cálculos baseiam-se em pressupostos falsos relativamente à evolução por selecção natural (por exemplo, no caso do flagelo bacteriano que Michael Behe afirma não poder ter evoluído desse modo), nunca tendo realizado um cálculo da probabilidade com significado para a teoria da evolução como ela é proposta.

Um bom modo de aumentar a informação de acordo com esta definição é a selecção natural e isto foi demonstrado por Thomas D. Schneider num artigo publicado em 2000 (1), relativamente aos locais de ligação de uma proteína artificial, usando o programa ev para simular o processo evolutivo que ocorre naturalmente a nível genético.

Referências:

  1. http://www.ncbi.nlm.nih.gov/pmc/articles/PMC102656/

Nota: o artigo em questão foi publicado após revisão de pares – isto é importante e é algo que os criacionistas desprezam. 

Sem comentários:

Enviar um comentário