22 de jan. de 2013

Máquinas enganarão os Humanos. Nós estamos melhor preparados



Frederico Pistono
Hoje, grandes fluxos de dados, juntamente com a análise estatística e algoritmos sofisticados, estão rapidamente ganhando importância em quase todos os campos da ciência, da política, do jornalismo, e muito mais. O que isso significa para o futuro do trabalho?

Como vimos, háalgumas semanas, a corrida para a eleição presidencial de 2012, os EUA tiveram um vencedor claro e indiscutível: os dados. Grandes volumes de dados, estatísticas, e algoritmos de computador, para ser preciso. A guerra teve duas facções claras. De um lado, tivemos jornalistas experientes, que haviam trabalhado muitos anos no campo, que baseou sua análise em dados de votação parcialmente, porém palpites, intuições e instintos tinham a palavra final sobre o assunto. Por outro lado, houve um blogueiro do New York Times, Nate Silver, sem experiência como analista político e intuição, portanto, pouca experiência, mas com um enorme saco cheio de um alto volume de dados, modelos estatísticos, fórmulas matemáticas e algoritmos de computador. Os Jornalistas chamaram Silver e seus métodos de uma "piada", "um bicho", e acusou-o de "ficarcom cara de bobo." Qual foi o resultado? Os mais experientes analistas políticos falharam miseravelmente, enquanto Nate Silver e sua Ciência de Dados previram corretamente os resultados da eleição, com dias de antecedência, com uma precisão de 100%, de acerto em todos os 50 estados.

Este fato, para aqueles que têm prestado atenção às tendências exponenciais da tecnologia e TI em geral, não foi nenhuma surpresa nenhuma surpresa.

Acreditava-se que os computadores nunca poderia bater o melhor ser humano no xadrez, porque os computadores podem executar ataques de força bruta muito ineficiente sobre problemas, ao invés da nossa intuição e estruturas hierárquicas que nossos cérebros realizam. No entanto, o Deep Blue, um computador da IBM, em 1997 contra Garry Kasparov, bateu o campeão mundial de xadrez, durante o que foi chamado de "o evento de xadrezmais espetacular da história".

A história se repetiu em 2011, quando o IBM Watson derrotou no jogo de Jeopardy, Brad Rutter, o maior vencedor de dinheiro de todos os tempos (mais de $ 3,4 milhões), e Ken Jennings, o detentor do recorde para a raia mais longa do campeonato (74 vitórias). Pouco antes da partida, os mesmos argumentos que foram trazidos em 1997 foram apresentados contra a máquina que foi mastigada cerca de 200 milhões de páginas de texto através I.A. (Inteligência Artificial) sofisticada. No entanto, a máquina ganhou novamente.

Recentemente, o lendário linguista NoamChomsky foi entrevistado sobre o desenvolvimento da inteligência artificial ao longo dos anos. Segundo o professor do MIT, o uso intenso de métodos estatísticos e de coletâneas grande de dados é improvável para produzir qualquer insights significativos em termos científicos para o estudo da língua, porque você "pode ​​obter uma aproximação cada vez melhor", "mas você não aprende nada sobre a linguagem ". Isso pode ser assim. Mas PeterNorvig, diretor de pesquisa do Google, aponta em sua resposta crítica que "gramaticalidade não é um julgamento, categórico determinista, mas sim inerentemente probabilístico. Isso se torna evidente para quem passa o tempo fazendo observações de um corpus de sentenças reais, mas pode permanecer desconhecida para aqueles que pensam que o objeto de estudo é o seu próprio conjunto de intuições sobre gramaticalidade [...] é de observação, não de intuição que é feito o modelo dominante para a ciência”.

É difícil dizer quem está certo. Só o tempo dirá. Mas nós sabemos que abordagens teve o maior sucesso comercial: os motores de busca, reconhecimento de voz, tradução automática, desambiguações no sentido da palavra, e outras tecnologias.

Nossas intuições e insights desenvolveram-se bastante linearmente com o tempo, mas a quantidade de dados à nossa disposição e o poder de computação capazes de interpretar esses dados está aumentando exponencialmente. Isso teve um efeito profundo sobre a força de trabalho, e ele vai fazer mais no futuro. Forbes já utiliza Narrativa Science, uma empresa de tecnologia inovadora, para criar conteúdo rico em narrativa apartir de dados. Agrega notícias do Google News, milhões de histórias e clusters com precisão em questão de segundos, uma tarefa que nenhum grupo de seres humanos poderia sonhar está realizando. O Facebook e Amazon usam algoritmos de sugestões que são demasiados complexos para ser igualado por qualquer homem ou mulher com "boa intuição". A lista vai sobre e sobre.

Parece que sempre que acreditamos que os computadores não podem ser mais espertos que os humanos em alguma tarefa, estamos errados. Como isso afetará a força de trabalho? O que vai acontecer com a economia no futuro, em vista destas mudanças rápidas à nossa frente? A resposta a estas questões não é trivial e, provavelmente, ninguém sabe com certeza. A minha esperança é de que, em breve, possamos iniciar uma conversa sobre este tema, que eu acho que é de extrema importância, e que deve estar no centro do nosso debate público.

O futuro da economia e da sociedade é muito incerto. No entanto, eu acho que vai depender de nós, de como nós decidimos usar a tecnologia prodigiosa que estamos desenvolvendo, e para que finalidade. E para garantir que tomamos o caminho certo, temos de começar uma conversa séria sobre esta questão, antes que seja tarde demais.

Fonte: Forbes.com



[i] Federico Pistono, italiano, radicado nos E.U.A, é membro do programa de pós-graduação da Singularity University e autor do livro Os Robôs irão roubar o seu trabalho,mas tudo bem: Como sobreviver ao colapso econômico e ser feliz.

0 comentários:

Postar um comentário

barrosdelimaster.info Receba de forma automática os artigos deste blog
Clique aqui para assinar nosso feed.

Leia também

 

Copyright © barrosdelimaster.info Design by BTDesigner | Blogger Theme by BTDesigner | Powered by Blogger