‘Eu robô’ ou ‘Terminator’ poderiam ser ciência real, não ficção

‘Eu robô’ ou ‘Terminator’ poderiam ser ciência real, não ficção

‘Eu robô’ ou ‘Terminator’ poderiam ser ciência real, não ficção

Os especialistas asseguram que a seriedade dos riscos é “difícil de avaliar”, mas em si mesma “parece uma causa de preocupação”. 

O Centro de Estudo de Risco Existencial, pertencente à Universidade de Cambridge, tem previsto estudar os riscos de que a tecnologia acabe com o ser humano em um futuro.

Em concreto, o CSER vai pesquisar os perigos que supõem para o homem novos campos como a biotecnología, a vida artificial, a nanotecnología e a mudança climática como resultado da atividade do ser humano. “Muitos cientistas estão preocupados porque os desenvolvimentos da tecnologia humana poderiam supor cedo novos perigos de extinção de toda nossa espécie”, explicam.

 A seriedade que implica todos estes riscos é “difícil de avaliar”, mas em si mesma “parece uma causa de preocupação” devido a “o muito que está em jogo”, assegura um dos cientistas. Ademais, acham que requerem mais investigações das que atualmente recebem. 

Por este motivo, uniram-se um filósofo (Huw Price, professor de Filosofia), um cientista (Martin Rees, professor emérito de Comsología e Astrofísica) e um emprendedor do campo do software (Jaan Tallin, um dos fundadores de Skype). A eles se lhes somam sete assessores de Cambridge e outros seis alheios à instituição.

A ideia é estabelecer um centro de investigação multidisciplinar na Universidade no que se possam estudar e mitigar este tipo de riscos.

 No caso da inteligência artificial, algo visto em obras de ciência ficção como Eu, Robô, 2001: Uma odissea no espaço ou Terminator, consideram que “parece uma predição razoável que em algum momento deste século ou o próximo a inteligência escapará das limitações da biologia”, segundo declarou Price a AP. E, quando isso ocorra, “já não seremos as coisas mais inteligentes do lugar”, o que pôr-nos-ia a graça de máquinas que, conquanto “não são maliciosas”, “não nos incluem” entre seus interesses. 

Por isso, ainda que pareça um risco longínquo, Price, Rees e Tallin têm preferido estar preparados desde o primeiro momento para saber como enfrentar ao momento no que as máquinas comecem a destinar os recursos do mundo a seus próprios fins e necessidades.

protestantedigital.com

 

Compartilhar é se importar!

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *