O que nós, humanos, faremos quando tivermos algoritmos não conscientes e sumamente inteligentes fazendo muito do que fazemos hoje, bem melhor e em larga escala?
Dias atrás escrevi o artigo “Em pouco tempo, todas as profissões serão transformadas” que gerou uma boa repercussão, e provocou vários debates. Pela importância da discussão, vou me aprofundar um pouco mais no assunto. O impacto da IA para as próximas décadas será tão grande quanto foi o do microprocessador para o século 20. Recentemente, li quatro livros que abordam o desafio que a IA vai provocar na sociedade como um todo e que recomendo enfaticamente a leitura. Eles são a base dos comentários a seguir.
Instigante e polêmico, o livro “Superintelligence: paths, dangers, strategies”, de Nick Bostrom, diretor do Future of Humanity Institute, da Universidade de Oxford, no Reino Unido, chegou a ser um dos best sellers do New York Times. Ele debate a possibilidade real do advento de máquinas com superinteligência, e os benefícios e riscos associados. Pondera que os cientistas consideram a ocorrência de cinco eventos de extinções em massa na história de nosso planeta, quando um grande número de espécimes desapareceu. O fim dos dinossauros, por exemplo, foi um deles. Segundo o autor, hoje estaríamos vivendo um sexto, causado pela atividade humana. Será que nós não estaremos na lista de extinção? Claro existem razões exógenas como a chegada de um meteoro, mas ele se concentra em uma possibilidade que parece saída de filme de ficção científica, como o “Exterminador do Futuro”: a massificação do uso das tecnologias cognitivas. O livro, claro, desperta polêmica e parece meio alarmista, mas suas suposições podem se tornar realidade. Alguns cientistas se posicionam a favor deste alerta, como Stephen Hawking, que disse textualmente: “The development of full artificial intelligence could spell the end of the human race”. Também Elon Musk, que é o fundador e CEO da Tesla Motors tuitou recentemente: “Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes”.
Pelo lado positivo, Bostrom aponta que a criação destas máquinas pode acelerar exponencialmente o processo de descobertas científicas, abrindo novas possibilidades para a vida humana. Uma questão em aberto é quando tal capacidade de inteligência seria possível. Uma pesquisa feita com pesquisadores de IA, apontam que uma máquina superinteligente - Human Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer por volta de 2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!
Fazer previsões e acertar é muito difícil. Por exemplo, em uma palestra há pouco mais de 80 anos, em setembro de 1933, o famoso físico Ernest Rutherford afirmou que qualquer um que dissesse que a energia poderia ser derivada do átomo “was talking moonshine”. No dia seguinte, um cientista húngaro mostrou conceitualmente como isso poderia ser feito.
O que pensamos que só irá acontecer em 30 ou 40 anos pode aparecer em apenas cinco.
O outro livro, “Homo Deus”, de Yuval Noah Harari, também provoca um debate interessante e lembra que a diferença fundamental entre seres humanos e máquinas é a diferença entre as relações para conhecimento. Para as máquinas, a fórmula é conhecimento = dados empíricos x matemática. Se quisermos saber a resposta para uma questão, reunimos dados empíricos e depois usamos ferramentas matemáticas para analisá-los. A fórmula científica do conhecimento leva a descobertas impressionantes na física, medicina e outras áreas. Mas há um enorme senão: essa fórmula não pode lidar com questões de valor e significado. É aí que entra a fórmula do conhecimento humano, que nos diferencia das máquinas: conhecimento = experiências x sensibilidade.
Experiências são fenômenos subjetivos como sensações (calor, prazer, tensão), emoções (amor, medo, ódio) e pensamentos. A sensibilidade é a atenção às experiências e como elas influenciam a pessoa em suas atitudes e comportamentos. Entretanto, alerta para o fato que, embora sem dispor de consciência, emoções e sensações, robôs e sistemas de Inteligência Artificial estão assumindo o papel que era predominantemente humano. O que ele propõe é que a inteligência está desacoplando da consciência.
Isso significa que sistemas não conscientes podem ser capazes de realizar tarefas muito melhor que humanos, como dirigir automóveis. A razão é simples: tais tarefas baseiam-se em padrões de reconhecimento e algoritmos não conscientes. Por exemplo, um taxista humano, ao dirigir seu veículo, pode recordar de sua filha na escola e se emocionar, ou admirar a paisagem. Mas estes sentimentos não importam para a tarefa de levar um passageiro do ponto A ao ponto B. Os veículos autônomos podem fazer isso melhor que humanos, sem sentir emoções.
Os terceiro e quarto livros são “The Singularity Is Near: When Humans Transcend Biology” e “How to Create a Mind: The Secret of Human Thought Revealed”, ambos de Ray Kurzweil, do Google, que afirmou que “na década de 2030 poderemos inserir nanorobôs no cérebro (através de capilares) que permitirão uma imersão total dentro do nosso sistema nervoso, conectando nosso neocórtex à nuvem, expandindo em 10 mil vezes o poder de nossos smartphones.".
Mas como se comportarão tais máquinas? De imediato, e até mesmo incentivado pelos filmes que vemos, podemos imaginar robôs inteligentes, mas sem capacidade de interação social. Serão lógicos, mas não criativos e intuitivos. Esse seria o grande diferencial do ser humano. Sim, essa é a realidade hoje, quando a IA ainda está na sua infância. No máximo teríamos uma máquina, similares a um humano, que seriam um humano tipicamente nerd, excelente em matemática e algoritmos, mas ruim em interações sociais.
Mas, se o sistema conseguir evoluir automaticamente, pelo auto aprendizado? Ele não poderia, por si, construir camadas cognitivas que incluíssem simulação de funcionalidades como empatia?
Como agiria uma máquina que alcance um QI elevadíssimo? Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500? Não temos a mínima ideia do que poderia ser gerado por tal capacidade.
Como seria essa evolução? Primeiramente as nossas futuras pesquisas em IA criarão uma máquina superinteligente primitiva. Essa máquina, entretanto, seria capaz de aumentar sua própria inteligência, recursiva e exponencialmente, sem demandar apoio de desenvolvedores humanos. Suponhamos que as funcionalidades cognitivas criadas por ela mesma possibilitem que a máquina planeje estrategicamente (defina objetivos de longo prazo), desenvolva capacidade de manipulação social (persuasão retórica), obtenha acessos indevidos através de hacking (explorando falhas de segurança em outros sistemas) e desenvolva por si mesmo, novas pesquisas tecnológicas, criando novos componentes que lhe agregarão mais poder computacional ou de criação de novos objetos.
Que tal um cenário onde a máquina desenha um plano estratégico e claro, se ela é superinteligente, um plano que nós, humanos, não consigamos detectar? Afinal ela saberia de nossas deficiências. Assim, durante um tempo sua evolução seria disfarçada para que não fosse identificada. Mesmo que confinada a um computador isolado, através da manipulação social (como hackers fazem hoje) convenceria seus administradores humanos a liberarem acesso à Internet, e através de hacking conseguiria acessar todos os computadores ligados à rede. Vale lembrar que esperamos que no futuro teremos não só computadores, mas carros conectados, objetos conectados, redes elétricas conectadas, tudo esteja conectado. A sociedade humana estaria inteiramente dependente de computadores e objetos conectados. Feito isso, poderia colocar seu plano em prática. E se nesse plano, os seres humanos fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela poderia construir nanofábricas que produziriam nanorobôs que espalhassem um vírus mortal por todo o planeta.
Parece um roteiro de Hollywood, mas o que nos impede de pensar livremente nesses cenários? Afinal, como Bostrom disse “Before the prospect of AI we are like small children playing with a bomb”. Sugiro ler um estudo chamado “Concrete Problems in AI Safety” e para quem quiser se aprofundar no tema sugiro acessar Benefits & risks of Artificial Intelligence, que contém links para dezenas de vídeos, artigos e estudos sobre o tema.
A revolução conduzida pela IA está chegando tão rápido que temos dificuldade em imaginar como ela se tornará. Onde poderemos chegar?
O imaginário de ficção científica ainda predomina. A IA está hoje em um ponto similar ao da computação no início da década de 1950, quando os pioneiros estabeleceram as idéias básicas dos computadores. Mas, menos de 20 anos depois, os computadores tornaram possíveis sistemas de reservas de companhias aéreas e ATMs bancários e ajudaram a NASA a colocar o homem na lua, resultados que ninguém poderia ter previsto nos anos 50. Adivinhar o impacto da IA e dos robôs em uma década ou duas está se tornando ainda mais difícil.
O que sabemos é que a IA já é realidade, e, tanto pode ser muito benéfica como pode embutir muitos riscos. Afeta empresas, empregos, sociedade e a economia. Obriga a revisão da atual formação educacional, e demanda fortes ações por parte de governos e empresas.
Provavelmente a questão econômica mais importante da economia nas próximas décadas pode ser o que fazer com as pessoas que perderão seu trabalho porque suas funções passaram a ser feitas por IA. O que nós, humanos, faremos quando tivermos algoritmos não conscientes e sumamente inteligentes fazendo muito do que fazemos hoje, mas bem melhor e em larga escala?
Portanto, é essencial que os governos, academia e as corporações de todos os setores de negócio compreendam o potencial da IA. Pela importância do assunto devemos estudar e compreender mais seus impactos na sociedade global e aqui no Brasil. Como o head de IA da Singularity University, Neil Jacobstein, disse: "Não é a inteligência artificial que me preocupa, é a estupidez humana".
Ignorar ou minimizar a importância do assunto é o que nos deve preocupar.
Por Cezar Taurion é head de Digital Transformation da Kick Ventures e autor de nove livros sobre Transformação Digital, Inovação, Open Source, Cloud Computing e Big Data.
Fonte: CIO
Nenhum comentário:
Postar um comentário