Em 20 anos, você terá um coração biônico: separe (muito) dinheiro
Futuro da mobilidade vai ter mais ‘opções’ e menos carros elétricos
Tendência na última década, trabalho remoto será ‘novo normal’
Por décadas a nossa interface de comunicação com as máquinas veio caminhando nesta direção. Os complexos códigos dos primeiros computadores foram substituídos pelos mouses das primeiras interfaces gráficas (Windows e macOS), depois pelos toques das telas de celular e, mais recentemente, pelos comandos de voz.
No centro desta evolução está a pergunta: como fazer com que seres humanos conversem com máquinas de forma natural, como se comunicam com qualquer pessoa, sem obstáculos? A resposta veio com o surgimento de métodos que permitem ensinar máquinas a pensar quase como nós.
Na última década, empresas como Google, Amazon e IBM investiram bilhões de dólares em aprendizado de máquina (machine learning), redes neurais e outros métodos de treinamento de sistemas com o objetivo de equipá-los com o poder de fazer associações, improvisar, identificar padrões e automatizar as próprias funções.
A ideia é que as máquinas possam observar os usuários e aprender com eles, quase como bebês humanos. Um marco nessa evolução veio logo no começo da década. Em 2011, a IBM colocou o robô Watson para participar de um episódio de “Jeopardy”, um programa de perguntas e respostas sobre assuntos gerais exibido na TV americana.
Na ocasião, o Watson venceu os outros dois competidores humanos. Para a IBM, o episódio não serviu apenas para mostrar que a IA consegue catalogar e acessar informações tão rapidamente quanto humanos, mas para mostrar que ela poderia ouvir e responder linguagem natural como se fosse um deles.
Yahoo! Finanças. “Nesses últimos anos, este foi o aspecto que foi mais desenvolvido. Isto trouxe uma onda de ferramentas e capacidades de atendimento muito sofisticadas.”” data-reactid=”37″>”Interagir com um humano de forma humana”, resume Fabricio Lira, executivo de Data & AI da IBM Brasil, em entrevista ao Yahoo! Finanças. “Nesses últimos anos, este foi o aspecto que foi mais desenvolvido. Isto trouxe uma onda de ferramentas e capacidades de atendimento muito sofisticadas.”
O domínio da linguagem natural foi a chave para levar a IA para a palma da mão de bilhões de pessoas, através de comandos de voz como “Ok Google” e “E aí, Siri”. As assistentes que habitam celulares e caixas de som (como a Alexa, da linha Amazon Echo) podem executar tarefas simples ou complexas, de checar a previsão do tempo a fazer as compras do mês.
A consultoria britânica Juniper Research estima que, até o final de 2018, o número de assistentes digitais equipadas com IA tenha chegado a 2,5 bilhões. A expectativa é de que este número triplique até 2023.
Outro marco no avanço desta tecnologia na última década foi durante evento organizado pelo Google destinado a desenvolvedores, em 2018. Na ocasião, a empresa apresentou ao mundo o Duplex, um sistema que permite que o Google Assistente faça ligações em nome do usuário.
O Duplex pode ligar para um restaurante para reservar uma mesa ou para um salão de beleza e agendar um corte de cabelo. Mas o mais impressionante é que a voz que o atendente do estabelecimento ouve do outro lado da linha é a de um robô treinado para falar como um ser humano, com pausas, ritmo e até suspiros típicos de pessoas de verdade.
Por enquanto, o Duplex só está disponível em alguns países de língua inglesa. Uma reportagem recente do site norte-americano The Verge mostrou que, um ano depois do lançamento nos EUA, a IA ainda deixava atendentes de diversos estabelecimentos achando que haviam falado com um ser humano.
Mas não é preciso ir tão longe. Empresas no Brasil já usam IA em serviços de atendimento ao cliente, por exemplo, para tornar o relacionamento com o consumidor mais humanizado. “Os atendimentos, em grande parte das soluções que a gente vende para os nossos clientes, terminam com saudações do tipo ‘Deus te abençoe, meu filho'”, diz Lira. “A pessoa, ao final do atendimento, não se dá conta de que está falando com uma máquina.”
A tecnologia também criou novos modelos de negócio na última década. A Nama é uma startup fundada em 2014 que desenvolve soluções de atendimento baseadas em IA, como chatbots e outros formatos de atendentes eletrônicos que compreendem e respondem linguagem natural.
Yahoo! Finanças. “Atender como era antigamente, via tíquete, e-mail ou algo impessoal, já não é tão eficaz quanto atender via chat ou WhatsApp. E automatizar essas conversas de chat é o que a gente faz através da nossa plataforma.”” data-reactid=”51″>”Ter uma ferramenta conversacional vem se tornando imprescindível”, diz Rodrigo Scotti, fundador e CEO da Nama, ao Yahoo! Finanças. “Atender como era antigamente, via tíquete, e-mail ou algo impessoal, já não é tão eficaz quanto atender via chat ou WhatsApp. E automatizar essas conversas de chat é o que a gente faz através da nossa plataforma.”
Para Scotti, humanizar a relação entre pessoas e máquinas é uma maneira de atender a um anseio natural do ser humano. “Existe uma tendência natural do humano de personificar objetos. A gente gosta de dar nomes para objetos, por exemplo. Quando ele fala com a gente, temos uma tendência de falar de volta e criar uma certa empatia.”
A tecnologia não para de avançar. Para a indústria, o próximo passo é construir sistemas de IA que consigam aprender e improvisar respostas para mais de um tipo de problema. Hoje, o que temos são robôs treinados em apenas algumas tarefas de cada vez. Mas logo teremos máquinas capazes de fazer de tudo ao mesmo tempo.
“O próximo passo é desenvolver uma inteligência artificial capaz de dialogar entre domínios”, explica Lira, da IBM. A empresa já trabalha no seu próximo momento “Jeopardy” com o Project Debater, uma IA treinada para argumentar sobre qualquer assunto em debates com humanos.
Nesse ritmo de evolução, quanto tempo falta até que o cenário de “Os Jetsons” seja ultrapassado por aquele do filme “Ela”? No longa-metragem de 2013, a relação entre humanos e máquinas fica tão humanizada que um homem (vivido por Joaquin Phoenix) se apaixona pelo sistema operacional da sua casa conectada (a voz onipresente de Scarlett Johansson).
Para o professor Fabio Gagliardi Cozman, da Escola Politécnica da Universidade de São Paulo (USP), coordenador da Comissão Especial de Inteligência Artificial da Sociedade Brasileira de Computação (SBC), porém, talvez seja cedo para imaginar cenários de ficção científica se tornando realidade.
“É preciso diferenciar entre a imitação do comportamento inteligente e a execução de atividades que requerem inteligência”, diz ele. “Existem programas que procuram imitar a capacidade humana de conversar de forma estruturada; é possível que esta atividade de imitação tenha sucesso antes que tenhamos programas que conseguem raciocinar de fato.”
“Penso que ainda estamos bastante distantes do momento em que programas terão todas as capacidades de alto nível cognitivo que identificamos em nós mesmos.”