Especialistas acreditam que a inteligência das máquinas se equiparará à de humanos até 2050, graças a uma nova era na sua capacidade de aprendizado.
Computadores já estão começando a assimilar informações a partir de dados coletados, da mesma forma que crianças aprendem com o mundo ao seu redor.
Isso significa que estamos criando máquinas que podem ensinar a si mesmas a participar de jogos de computador – e ser muito boas neles – e também a se comunicar simulando a fala humana, como acontece com os smartphones e seus sistemas de assistentes virtuais.
Fei-Fei Li, professora da Universidade de Stanford e diretora do laboratório de visão computacional da instituição, passou os últimos 15 anos ensinando computadores a enxergar.
Seu objetivo é criar olhos eletrônicos para robôs e máquinas e torná-los capazes de entender o ambiente em que estão.
Metade da capacidade cerebral de um humano é usada no processamento visual, algo que fazemos sem um grande esforço aparente.
“Ninguém diz para uma criança como enxergar. Ela aprende isso por meio de experiências e exemplos do mundo real”, disse Li em sua palestra na conferência TED neste ano.
“Se você pensar, os olhos de uma criança são como um par de câmeras biológicas que tiram fotografias a cada 200 milissegundos, o tempo médio dos movimentos oculares. Então, aos 3 anos de idade, uma criança teria centenas de milhões de fotos. Isso é um grande treinamento.”
Ela decidiu ensinar computadores da mesma forma. “Em vez de só me concentrar em criar em algoritmos cada vez melhores, minha ideia é dar aos algoritmos o treinamento que crianças recebem por meio de experiências, quantitativamente e qualitativamente.”
Treinamento
Em 2007, Li e um colega de profissão deram início a uma tarefa desafiadora: filtrar e identificar 1 bilhão de imagens obtidas na internet para que sirvam de exemplos do que é o mundo real para um computador.
Eles pensavam que, se uma máquina visse imagens suficientes de uma determinada coisa, como um gato, por exemplo, seria capaz de reconhecer isso na vida real.
Eles pediram ajuda em plataformas de colaboração online e contaram com o apoio de 50 mil pessoas de 167 países. No fim, tinham a ImageNet, uma base dados de 15 milhões de imagens relativas a 22 mil tipos de objetos, organizada de acordo com seus nomes em inglês.
Isso se tornou um recurso valioso usado por cientistas ao redor do mundo que buscam conferir aos computadores uma forma de visão.
Todos os anos, a Universidade de Stanford realiza uma competição, convidando empresas como Google, Microsoft e a chinesa Baidu, para testar a performance de seus sistemas com base na ImageNet.
Nos últimos anos, estes sistemas tornaram-se especialmente bons em reconhecer imagens, com uma margem de erro média de 5%.
Para ensinar computadores a reconhecer imagens, Li e sua equipe usaram redes neurais, nome dado a programas de computadores feitos a partir de células artificiais que funcionam de forma muito semelhante à de um cérebro humano.
Uma rede neural dedicada a interpretar imagens pode ter desde algumas centenas a até milhões destes neurônios artificiais, dispostos em camadas.
Cada camada reconhece diferentes elementos de uma imagem. Uma aprende que uma imagem é feita de pixels. Outra reconhece cores. Uma terceira determina seu formato e assim por diante.
Ao chegar à camada superior – e as redes neurais hoje têm até 30 camadas -, esta rede é capaz de ter uma boa noção do que se trata a imagem.
Em Stanford, uma máquina assim agora escreve legendas precisas para vários tipos de imagens, apesar de ainda cometer erros, como, por exemplo, dizer que uma foto de um bebê segurando uma escova de dente foi identificada como “um menino segurando um taco de beisebol”.
Apesar de uma década de trabalho duro, disse Li, esta máquina ainda tem a inteligência de uma criança de 3 anos. E, ao contrário desta criança, ela não é capaz de compreender contextos.
“Até agora, ensinamos um computador a ver objetivamente ou a nos contar uma história simples quando vê uma imagem”, afirmou Li.
Mas, quando pede para que a máquina avalie uma imagem de seu filho em uma festa de família, o computador simplesmente diz se tratar de um “menino de pé ao lado de um bolo”.
“O computador não vê que é um bolo especial que é servido apenas na época da Páscoa”, explicou Li.
Este é o próximo passo de sua pesquisa no laboratório: fazer com que máquinas entendam uma cena por completo, além de comportamentos humanos e as relações entre diferentes objetos.
A meta final é criar robôs que “enxergam” para que auxiliem em cirurgias, buscas e resgates e que, no fim das contas, promovam melhorias em nossas vidas, segundo Li.
Progresso
O complexo trabalho realizado em Stanford tem como base o lento progresso obtido nesta área nos últimos 60 anos.
Em 1950, o cientista da computação britânico Alan Turing já especulava sobre o surgimento de uma máquina pensante, e o termo “inteligência artificial” foi cunhado em 1956 pelo cientista John McCarthy.
Após alguns avanços significativos nos anos 1950 e 1960, quando foram criados laboratórios de inteligência artificial em Stanford e no Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês), ficou claro que a tarefa de criar uma máquina assim seria mais difícil do que se pensava.
Veio então o chamado “inverno da inteligência artificial”, um período sem grandes descobertas nesta área e com uma forte redução no financiamento de suas pesquisas.
Mas, nos anos 1990, a comunidade dedicada à inteligência artificial deixou de lado uma abordagem baseada na lógica, que envolvia criar regras para orientar um computador como agir, para uma abordagem estatística, usando bases de dados e pedindo para a máquina analisá-los e resolver problemas por conta própria.
Nos anos 2000, um processamento de dados mais veloz e a grande oferta de dados criaram um ponto de inflexão para a inteligência artificial, fazendo com que esta tecnologia esteja presenta em muitos dos serviços que usamos hoje.
Ela permite que a Amazon recomende livros, o Netflix indique filmes e o Google ofereça resultados de buscas mais relevantes. Algoritmos passaram a estarem presentes nas negociações feitas em Wall Street, indo às vezes longe demais, como em 2010, quando um algoritmo foi apontado como culpado por uma perda de bilhões de dólares na Bolsa Nova York.
Também serviu de base para os assistentes virtuais de smartphones, como a Siri, da Apple, o Now, do Google, e a Cortana, da Microsoft.
Neste momento, máquinas assim estão aprendendo em vez de pensar. É alvo de controvérsia se é possível programar uma máquina para pensar, já que a complexa natureza do pensamento humano tem intrigado cientistas e filósofos há séculos.
E ainda assim restarão elementos da mente humana, como sonhar acordado, por exemplo, que máquinas nunca serão capazes de replicar.
Ainda assim, a habilidade destes computadores vem melhorando, e a maioria das pessoas concorda que a inteligência artificial está entrando em sua era de ouro e só se tornará mais eficiente aqui daqui em diante.
Fonte: Jane Wakefield – BBC News