Frederico Pistono |
Hoje, grandes fluxos de dados, juntamente com a
análise estatística e algoritmos sofisticados, estão rapidamente ganhando
importância em quase todos os campos da ciência, da política, do jornalismo, e
muito mais. O que isso significa para o futuro do trabalho?
Como vimos, háalgumas semanas, a corrida para a eleição presidencial de 2012, os EUA
tiveram um vencedor claro e indiscutível: os dados. Grandes volumes de dados,
estatísticas, e algoritmos de computador, para ser preciso. A guerra teve duas
facções claras. De um lado, tivemos jornalistas experientes, que haviam
trabalhado muitos anos no campo, que baseou sua análise em dados de votação parcialmente,
porém palpites, intuições e instintos tinham a palavra final sobre o assunto.
Por outro lado, houve um blogueiro do New York Times, Nate
Silver, sem experiência como analista político e intuição, portanto,
pouca experiência, mas com um enorme saco cheio de um alto volume de dados,
modelos estatísticos, fórmulas matemáticas e algoritmos de computador. Os Jornalistas
chamaram Silver e seus métodos de uma "piada",
"um bicho",
e acusou-o de "ficarcom cara de bobo." Qual foi o resultado? Os mais experientes
analistas políticos falharam miseravelmente, enquanto Nate Silver e sua Ciência
de Dados previram corretamente os resultados da eleição, com dias de
antecedência, com uma precisão de 100%, de acerto em todos os 50 estados.
Este fato, para aqueles que têm prestado atenção às
tendências exponenciais da tecnologia e TI em geral, não foi nenhuma surpresa
nenhuma surpresa.
Acreditava-se que os computadores nunca poderia
bater o melhor ser humano no xadrez, porque os computadores podem executar
ataques de força bruta muito ineficiente sobre problemas, ao invés da nossa
intuição e estruturas hierárquicas que nossos cérebros realizam. No entanto, o Deep
Blue, um computador da IBM, em 1997 contra Garry Kasparov, bateu o
campeão mundial de xadrez, durante o que foi chamado de "o evento de xadrezmais espetacular da história".
A história se repetiu em 2011, quando o IBM Watson
derrotou no jogo de Jeopardy,
Brad Rutter, o maior vencedor de dinheiro de todos os tempos (mais de $ 3,4
milhões), e Ken Jennings, o detentor do recorde para a raia mais longa do
campeonato (74 vitórias). Pouco antes da partida, os mesmos argumentos que
foram trazidos em 1997 foram apresentados contra a máquina que foi mastigada
cerca de 200 milhões de páginas de texto através I.A.
(Inteligência Artificial) sofisticada. No entanto, a máquina ganhou novamente.
Recentemente, o lendário linguista NoamChomsky foi entrevistado
sobre o desenvolvimento da inteligência artificial ao longo dos anos. Segundo o
professor do MIT,
o uso intenso de métodos estatísticos e de coletâneas grande de dados é
improvável para produzir qualquer insights significativos em termos científicos
para o estudo da língua, porque você "pode obter uma aproximação cada
vez melhor", "mas você não aprende nada sobre a linguagem ".
Isso pode ser assim. Mas PeterNorvig, diretor de pesquisa do Google, aponta em sua resposta
crítica que "gramaticalidade não é um julgamento, categórico determinista,
mas sim inerentemente probabilístico. Isso se torna evidente para quem passa o
tempo fazendo observações de um corpus de sentenças reais, mas pode permanecer
desconhecida para aqueles que pensam que o objeto de estudo é o seu próprio
conjunto de intuições sobre gramaticalidade [...] é de observação, não de intuição
que é feito o modelo dominante para a ciência”.
É difícil dizer quem está certo. Só o tempo dirá.
Mas nós sabemos que abordagens teve o maior sucesso comercial: os motores de
busca, reconhecimento de voz, tradução automática, desambiguações no sentido da
palavra, e outras tecnologias.
Nossas intuições e insights desenvolveram-se
bastante linearmente com o tempo, mas a quantidade de dados à nossa disposição
e o poder de computação capazes de interpretar esses dados está aumentando
exponencialmente. Isso teve um efeito profundo sobre a força de trabalho, e ele
vai fazer mais no futuro. Forbes já utiliza Narrativa Science, uma empresa de
tecnologia inovadora, para criar conteúdo rico em narrativa apartir de dados. Agrega notícias do Google News, milhões de histórias
e clusters com precisão em questão de segundos, uma tarefa que nenhum grupo de
seres humanos poderia sonhar está realizando. O Facebook e Amazon
usam algoritmos de sugestões que são demasiados complexos para ser igualado por
qualquer homem ou mulher com "boa intuição". A lista vai sobre e
sobre.
Parece que sempre que acreditamos que os
computadores não podem ser mais espertos que os humanos em alguma tarefa,
estamos errados. Como isso afetará a força de trabalho? O que vai acontecer com
a economia no futuro, em vista destas mudanças rápidas à nossa frente? A
resposta a estas questões não é trivial e, provavelmente, ninguém sabe com
certeza. A minha esperança é de que, em breve, possamos iniciar uma conversa
sobre este tema, que eu acho que é de extrema importância, e que deve estar no
centro do nosso debate público.
O futuro da economia e da sociedade é muito incerto.
No entanto, eu acho que vai depender de nós, de como nós decidimos usar a
tecnologia prodigiosa que estamos desenvolvendo, e para que finalidade. E para
garantir que tomamos o caminho certo, temos de começar uma conversa séria sobre
esta questão, antes que seja tarde demais.
[i]
Federico Pistono, italiano, radicado nos E.U.A, é membro do programa
de pós-graduação da Singularity University e autor do livro Os Robôs irão roubar o seu trabalho,mas tudo bem: Como sobreviver ao colapso econômico e ser feliz.
0 comentários:
Postar um comentário