A Consciência Artificial

Nos filmes de ficção científica, como “Matrix”, a humanidade passa a ser controlada pelas máquinas, que pensam e controlam a sociedade. Em outros mais poéticos, como “O Homem Bicentenário”, as máquinas tem vida própria e até sentimentos.
A questão da Inteligência Artificial é muito discutida. Quando seria possível um robô agir por conta própria? Computadores teriam sentimentos?
É claro que a tecnologia avança a passos largos. As máquinas, até mesmo por serem controladas por homens, são falíveis. Mas quem é ou quem será mais inteligente: o homem ou os computadores?
Alguns estudiosos afirmam que até 2030 as máquinas pensarão como os homens, e que terão a sua capacidade de processamento baseada nos mesmos bilhões de neurônios dos homens.
Baseado nisso, compartilho uma interessante entrevista com Nick Bostrom, considerado um futurólogo tecnológico extremamente respeitado. Nessa entrevista, ele fala sobre homens modificados geneticamente, alterações no DNA e máquinas “quase humanas”.

Extraído de: http://revistaepoca.globo.com/Revista/Epoca/0,,EMI24851-15295,00-NICK+BOSTROM+POR+QUE+NAO+MUDAR+O+DNA+HUMANO.html

Nick Bostrom – “Por que não mudar o DNA humano?”
Por Peter Moon
Nick (ou Niklas) Bostrom é um dos mais jovens e brilhantes pensadores do futuro tecnológico da humanidade. Em 2008, ele coorganizou, ao lado de Sir Martin Rees, o presidente da Real Sociedade britânica, o livro Global catastrophic risks (Riscos de catástrofes globais), em que se discutem as diversas ameaças à humanidade. Em seu novo livro, Human enhancement (Aperfeiçoamento humano, no prelo), Bostrom defende o uso da manipulação gênica por todos os que queiram expandir sua memória e inteligência. No dia em que essa tecnologia estiver disponível, por que não usá-la? Em favor dessa tese, Bostrom investe contra os defensores das terapias “naturais” para obter uma vida melhor e mais saudável. São os mesmos que atacam a engenharia genética como insensata e cheia de riscos.

ÉPOCA – Superpopulação, poluição, destruição ambiental, proliferação nuclear… Corremos o risco de nos autodestruir?
Nick Bostrom Não creio que a humanidade enfrente riscos a sua existência. Mesmo uma guerra nuclear não levaria à extinção do ser humano. Meu receio são as novas tecnologias. Elas, sim, podem pôr em risco nossa existência.

ÉPOCA – Quais são elas?
Bostrom – O primeiro exemplo é o desenvolvimento de máquinas inteligentes, a inteligência artificial. Outro risco é a criação de armas baseadas em biotecnologia e nanotecnologia. O avanço nas técnicas de vigilância também é arriscado, pois daria o poder de saber tudo sobre a população, e pode cair nas mãos de governos totalitários. Acrescento ainda o uso político ou criminoso da engenharia genética para mudar o ser humano.

ÉPOCA – O senhor fundou a Associação Trans-Humanista Mundial. O que é isso?
Bostrom – A humanidade será radicalmente modificada pelas futuras tecnologias, numa escala jamais imaginada. Os trans-humanistas preveem a iminência da alteração da condição humana. Será possível dilatar a vida e expandir os limites do corpo e da mente. Por que não melhorar geneticamente nossa capacidade de concentração ou de memória, se tivermos os meios a nossa disposição? Por que não mudar o DNA humano?

ÉPOCA – Ter uma vida mais saudável não é o suficiente para viver mais e melhor?
Bostrom – Muitas pessoas preferem os remédios naturais, os suplementos alimentares naturais e os métodos naturais para ampliar as capacidades do corpo, por meio de exercícios físicos, de dietas saudáveis e mais cuidados com a higiene. As intervenções “não naturais” são vistas com suspeita. Essa atitude é particularmente verdadeira em relação aos métodos artificiais de aperfeiçoamento humano, considerados imprudentes e com possíveis efeitos colaterais. Contra os que temem o aprimoramento gênico do ser humano, o trans-humanismo defende o direito ao uso responsável da engenharia genética por todos aqueles que queiram estender os próprios limites físicos e intelectuais. (…)

ÉPOCA – Sobre a inteligência artificial, muitos trans-humanistas creem que as máquinas serão conscientes até 2030.
Bostrom – Essa crença é baseada na Lei de Moore. Ela prevê que a capacidade dos processadores dobra a cada 18 meses. Desde 1965, quando a lei foi formulada por Gordon Moore, um dos fundadores da Intel, ela tem se mantido válida. Nestes 40 anos, a evolução dos chips se deu em escala geométrica. A prosseguir o mesmo ritmo, argumenta-se que, entre 2025 e 2030, a capacidade de processamento dos computadores eventualmente rivalizará com aquela do cérebro humano. Quem acha que a consciência é somente uma função da capacidade de processamento dos 100 bilhões de neurônios do cérebro humano acredita que, quando os computadores atingirem igual capacidade, a inteligência artificial emergirá. Se a lei de Moore continuar valendo, 18 meses depois as máquinas deixarão a inteligência do Homo sapiens para trás. Eu não acredito nessa hipótese. Não acho que as máquinas serão inteligentes daqui a 20 anos. O advento da inteligência artificial pode levar cinco décadas, pode levar um século, ou jamais ocorrer.

ÉPOCA – Caso as máquinas se tornem inteligentes, quais serão as consequências?
Bostrom – A inteligência artificial será a última invenção que os humanos terão de desenvolver. Por definição, uma máquina superinteligente será capaz de produzir invenções científicas e tecnológicas inconcebíveis ao ser humano. A sociedade que daí surgir dependerá de quais forem os objetivos da superinteligência. Por analogia, a razão pela qual o homem dominou a Terra não é sermos mais fortes e ágeis que os outros animais, ou termos garras e dentes mais afiados. Foi nosso cérebro. Com ele, criamos a civilização. Pela mesma razão, uma superinteligência seria mais poderosa que nós.

ÉPOCA – A superinteligência controlará nossa vida, como no filme Matrix?
Bostrom – Não creio que o futuro nos reserve um cenário como Matrix. Mas tudo dependerá dos objetivos segundo os quais a inteligência artificial for desenvolvida. Se os programadores da máquina forem suficientemente habilidosos e sábios, o resultado pode ser extremamente bom. De qualquer forma, existe um risco substancial e inerente à criação da superinteligência.

ÉPOCA – A nanotecnologia também envolve riscos. Ela pode derivar em armas de destruição maciça.
Bostrom – Sim. O grande argumento dos que defendem o fim das pesquisas com nanotecnologia é o temor da criação de robôs minúsculos como vírus. Eles se multiplicariam descontroladamente, extinguindo a humanidade. Se o risco existe, e isso é discutível, impedir a pesquisa não é solução. Caso o Brasil, os Estados Unidos ou o Ocidente decidam barrar o estudo da nanotecnologia, cedo ou tarde alguém o fará. Pode ser a China, o Irã ou outro país. Para tornar o mundo mais seguro, é melhor que os regimes com democracias estáveis cheguem lá primeiro. O cerceamento à pesquisa torna o mundo mais perigoso.

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.