Aplicações: Inteligência Artificial

LUÍSA COHEUR, PEDRO BIZARRO, MILLIND TAMBE

Inteligência Artificial: Aplicações, o primeiro debate do ciclo, apresenta o estado atual de algumas das principais aplicações da inteligência artificial, as suas possibilidades e os seus limites.

Como ponto de partida vão ser abordadas grandes áreas de investigação como os robôs com quem já podemos conversar e as possibilidades do processamento da língua natural e dos agentes conversacionais; o uso da inteligência artificial e de multiagentes robóticos para o bem social; a inteligência artificial nas implementações de sistemas de segurança e no combate de fraudes informáticas e outras.

 

Inteligência Artificial: Aplicações

Luísa Coheur (IST, Portugal)
Pedro Bizarro (Feedzai, Portugal e EUA)
Millind Tambe (India e EUA)

Nesta palestra, Luísa Coheur irá falar-nos sobre o processamento da linguagem natural, uma das grandes áreas da inteligência artificial e, em particular, sobre os agentes coversacionais, hoje em dia mais conhecidos por "chatbots". O que está por detrás de um chatbot? Será que nos compreendem mesmo? Da velhinha ELIZA (o primeiro chatbot de sempre, criado nos anos 60) às atualmente superfamosas assistentes virtuais Siri, Cortana e Alexa, o que mudou? Quais foram os desafios superados? O que ainda está por resolver? O que é real e o que é ficção científica? Será que alguma vez conseguiremos dominar algo tão complexo como a língua que falamos? Estas são as perguntas a que Luísa Coheur tentará responder.

Instituições financeiras globais, bancos, processadores de pagamentos e plataformas de e-commerce, todos eles têm uma coisa em comum: o nível de ameaça aumentou drasticamente com o surgimento de tecnologia sofisticada usada para conduzir atividades fraudulentas. Pedro Bizarro, cofundador e CSO da Feedzai explicará como a IA tem um papel central na deteção de ataques de fraude em escala global, impedindo a expansão de redes complexas de lavagem de dinheiro e monitorizando o risco financeiro de ponta a ponta.

Aplicações em Tecnologias da Linguagem: no mundo dos agentes conversacionais

Luísa Coheur (IST, Portugal)

Um dos grandes objetivos da Inteligência Artificial é criar máquinas capazes de compreender e produzir linguagem humana na sua forma oral, escrita e/ou gestual. A área do saber que, numa perspetiva computacional, se dedica ao estudo da língua é a das “Tecnologias da Linguagem (Humana)”, sendo responsável pelo desenvolvimento de muitas aplicações usadas pelo grande público, no seu dia-a-dia. Exemplos são o Google Translate ou o corretor ortográfico (e sintático) do Microsoft Word. Outros exemplos são os sistemas de sumarização, os geradores de poesia, os analisadores de sentimentos, os sistemas de pergunta/resposta e os reconhecedores de fala; há ferramentas que tentam detetar Cyberbullying, identificar traços de personalidade no que escrevemos (muito útil à área de “Linguística Forense”, por exemplo), ou assinalar as tão faladas (e preocupantes) Fake News; são também aplicações da área os chatbots e as assistentes virtuais, como a Siri da Apple, a Cortana da Microsoft ou a Alexa da Amazon.

O primeiro agente conversacional foi a famosa ELIZA, desenvolvida nos anos 60, com o objetivo de simular uma psicoterapeuta. Esta aplicação teve um sucesso estrondoso na época, a ponto de deixar o seu criador preocupado, pois baseando-se em simples regras, não fazia mais que “enganar” o seu interlocutor, levando-o a falar sobre si (e.g., “Por favor, continue...”, “O que o faz pensar que a sua sogra não o estima?”). Esta ideia de usar características do personagem virtual para explicar o rumo ou mesmo falhas na conversa foi e continua a ser muito usada (e.g., Edgar Smith, um mordomo virtual que operava recentemente no palácio de Monserrate, em Sintra, dizia que ouvia mal quando não percebia uma pergunta). Outro conceito que nasceu com os primeiros chatbots (quando ainda não se usava esta palavra) e que ainda hoje é explorado é o de “aprender conversando”. Por exemplo, se numa interação perguntarmos a um chatbot “O que achas dos Beatles?” e este não souber responder, vai dizer qualquer coisa mais ou menos acertada, mas regista a pergunta. Na próxima interação que tiver com um humano, o chatbot far‑lhe‑á essa mesma pergunta e obterá uma resposta. Claro que esta abordagem pode correr mal e um caso bastante mediático foi o de um chatbot que se dispunha a aprender por interação com os humanos. Poucas horas depois de estar em utilização, o chatbot era racista, nazi e ordinário, e teve de ser desligado.

Mas pondo de lado alguns casos mais caricatos, há um interesse renovado no desenvolvimento de chatbots e assistentes virtuais. Estes podem poupar muito dinheiro a uma organização, fazendo, por exemplo, o apoio a clientes. Supondo-os capazes, estes agentes são perfeitos: estão disponíveis 24 horas por dia e não se sentem perturbados perante clientes sui generis.

Existem atualmente inúmeras plataformas para a criação de chatbots. Tal como em toda a área de Tecnologias da Linguagem, estas plataformas vivem de pré-processamentos específicos (e.g., separar uma frase nos seus constituintes ou eliminar palavras com pouca relevância) e alimentam-se de técnicas de Aprendizagem Automática. Estas são usadas para detetar as intenções do utilizador (e.g., o cliente quer pedir uma pizza, uma bebida ou fazer uma reclamação), bem como identificar as entidades de uma pergunta (e.g., TAP, Londres, lugar 2D). Os dados que vão ser usados em todos os processos de aprendizagem ficam a cargo de quem está a desenvolver o chatbot e não há grandes milagres: podem‑se tentar aproveitar dados de outros domínios, mas todos têm as suas especificidades e, por isso, mais cedo ou mais tarde, serão necessários dados especializados.

Talvez por se estar à espera de um processo simplesmente “plug and play”, há alguma frustração aquando da criação de chatbots, que aumenta quando se torna óbvio que o agente virtual não será capaz de manter uma conversa ao nível de um agente humano. Na verdade, apesar dos grandes avanços que se têm verificado recentemente em todas as frentes da Inteligência Artificial (e também na área das Tecnologias da Linguagem) ainda estamos muito longe de conseguir criar máquinas capazes de realmente compreender e produzir linguagem ao nível dos humanos. Mas porque é que é tão complicado pôr uma máquina a falar como nós?

Dado que conseguimos comunicar com (algum) sucesso, nem nos apercebemos que as sequências de palavras que interpretamos e libertamos a toda a hora são muitas vezes ambíguas e extremamente variáveis, apesar de obedecerem a certas regras de sintaxe. Uma palavra pode ter vários significados (e.g., “secretária”), assim como uma frase (e.g., “O João e a Maria casaram-se”.  Casaram-se um com o outro ou cada um com outra pessoa?). Das ambiguidades a nível lexical ou sintático (entre outras) emergem frases com sentidos diferentes. O modo como dizemos algo também influencia a interpretação de uma frase (e.g., “Bom dia” pode ser dito, num tom desagradável, a quem chega atrasado, como quem diz “Finalmente!”). Do mesmo modo, o contexto em que uma palavra ocorre leva a que, por vezes, esta perca o seu significado habitual. É o que se passa nas “expressões idiomáticas” (e.g., “bater a bota”, “chover a potes”) e, numa escala muito maior em termos de produção, nas chamadas “colocações” (por exemplo). Estas são sequências de palavras que aprendemos a usar desde pequeninos, mas que não sabemos realmente porque é que se diz daquela maneira (e.g., “apanhar o avião”, “pôr a mesa”); se para um aprendente de uma língua estrangeira a produção destas expressões é um verdadeiro desafio, também o é, certamente, para um sistema computacional. Para complicar ainda mais, apesar de o contexto ajudar a desambiguar algumas produções, também pode levar a mais interpretações de uma frase (e.g., “achei hilariante” pode ser um comentário positivo se estivermos a avaliar um filme cómico, mas não o será se nos referimos a um filme de terror ou a um drama). Existe ainda um conjunto de fenómenos do qual fazem parte o humor e o sarcasmo, que complicam ainda mais as tarefas da máquina (e.g., “Aqueles que acreditam em telecinesia levantem a minha mão” – Kurt Vonnegut). Mas as complicações não acabam aqui: outro fator que torna terrivelmente complexo o processamento computacional da nossa língua é a variabilidade linguística, isto é, a nossa capacidade de dizer a mesma coisa de tantas maneiras diferentes (e.g., “sim”, “certo”, “ok”, “Okay”, “Okie dokie”, “parece bem”, “absolutamente”, “claro”, ..., são apenas algumas maneiras de expressar concordância). Esta variabilidade tem a ver com o nosso domínio da língua que, por sua vez, é influenciado pela época em que vivemos, pela nossa idade, condição social, profissão, região em que nascemos e/ou habitamos, estado emocional, entre outros. Uma aplicação verdadeiramente robusta deverá ser capaz de lidar com todas as nossas produções, por muito distintas que sejam; para além disso, tem de ser dotada de alguma capacidade de raciocínio, que para além dos fatores anteriormente referidos, deverá ter em conta todos elementos não verbais envolvidos numa conversa (e.g., a expressão facial do interlocutor, o cenário, etc.). E a verdade é que ainda estamos longe de conseguir integrar todas estas variáveis.

Em resumo, a área das Tecnologias da Linguagem encontra-se a dar cartas, constituindo um dos cenários mais desafiantes para os loucos avanços na área de Aprendizagem Automática. Não será provavelmente para amanhã a criação de um agente capaz de nos “enganar” fazendo passar-se por um humano (a não ser em curtas conversas em domínios muito específicos); no entanto, muito em breve teremos o nosso chatbot pessoal, que nos guiará em tarefas rotineiras e que será capaz de nos ajudar em alguns domínios em que é especialista. O futuro (que está por minutos) nos dirá.

17 ABR 2019
QUA 16:00

Grande Auditório
Entrada gratuita*
Duração 2h

*Entrada gratuita, sujeita à lotação e mediante levantamento de bilhete no próprio dia a partir das 15:00

Em português e inglês com tradução simultânea

Live streaming disponível

Parceria

Fidelidade

MILLIND TAMBE

Professor Helen N. e Emmett H. Jones de Engenharia na Universidade do Sul da Califórnia (USC),

Codiretor e Fundador do CAIS, Centro de Inteligência Artificial / USC

LUÍSA COHEUR

Professora do Departamento de Engenharia Informática do IST e investigadora no INESC-ID

PEDRO BIZARRO

Cofundador e Chief Science Officer da Feedzai

Moderação:

INÊS LYNCE (IST)

Biografias

Luísa Coheur

Luísa Coheur nasceu em Lisboa, adora ensinar e é uma apaixonada por boas histórias. É licenciada em Matemática Aplicada e Computação pelo Instituto Superior Técnico (IST), e doutorada pelo IST e pela Université Blaise-Pascal na área de processamento da língua Natural. É professora do Departamento de Engenharia Informática do IST e investigadora no INESC-ID. O seu tópico de estudo de eleição recai sobre as interfaces em língua natural. Como acredita que a ciência deve estar ao serviço do bem público, está a desenvolver, entre outros, um tradutor de português para língua gestual portuguesa, bem como software que permite criar exercícios que possam auxiliar crianças com necessidades especiais. Quando tem tempo (no Verão) escreve. Tem três livros e dois contos (não científicos) publicados.

Millind Tambe (India e EUA)

Milind Tambe é Professor Helen N. e Emmett H. Jones de Engenharia na Universidade do Sul da Califórnia (USC) e Co-Diretor Fundador do CAIS, o Centro de Inteligência Artificial da USC, onde centra sua pesquisa no avanço de inteligência artificial e de multiagentes para o bem social. Doutorado pela Escola de Ciência da Computação da Universidade Carnegie Mellon, é membro da AAAI (Associação para o Avanço da Inteligência Artificial) e da ACM (Associação de Máquinas de Computação). Prof. Tambe contribuiu com vários artigos fundamentais em inteligência artificial em áreas como a dos agentes inteligentes e a teoria de jogos computacional; esses trabalhos teóricos receberam mais de uma dúzia de prémios em congressos como AAMAS, IJCAI, IAAI e IVA. Além disso, o Prof. Tambe é pioneiro no mundo real de implementações de jogos de segurança, o que o levou e à sua equipa a receber elogios do Comandante da Guarda Costeira dos EUA, da Polícia do Aeroporto de Los Angeles, e dos Federal Air Marshals Service dos EUA. Recebeu o prémio International Joint Conference on AI John McCarthy Award, Prémio de Pesquisa de Agentes Autônomos da ACM/SIGAI, o prémio Christopher Columbus Fellowship Foundation Homeland Security, o prêmio INFORMS Wagner em Pesquisa Operacional, o Rist Prize da Military Operations Research Society, o IBM Faculty Award, o prêmio fundação Okawa, o prêmio de desafio científico RoboCup, entre outros. Por seu ensino e tutoria, o Prof. Tambe recebeu o prêmio USC Steven B. Sample Teaching and Mentoring, entre outros. Prof. Tambe co-fundou uma empresa baseada na sua investigação, a Avata Intelligence.

Pedro Bizarro (Feedzai, Portugal e EUA)

Pedro Bizarro é cofundador e Chief Science Officer da Feedzai. Iniciando o seu percurso na academia e na investigação, Pedro Bizarro transformou sua experiência técnica em sucesso empresarial, ao ajudar a desenvolver a plataforma de inteligência artificial com que a Feedzai opera, sendo líder no combate a fraudes. Pedro Bizarro é membro oficial do Forbes Technology Council, professor visitante da Carnegie Mellon University, bolseiro da Fulbright, e trabalhou com o CERN (Organização Europeia para Pesquisa Nuclear). É doutorado em Ciência de Computação pela Universidade de Wisconsin, Madison.

Inteligência Artificial: Aplicações, Implicações e Especulações

 

A Inteligência Artificial impõe-se cada vez mais na realidade das sociedades contemporâneas. Novos desenvolvimentos tecnológicos nascem todos os dias mas raramente o seu impacto é devidamente reflectido na esfera pública. Assumindo a importância de conhecer e discutir esta realidade, este ciclo de debates promove o olhar e a reflexão sobre as aplicações atuais da Inteligência Artificial, as suas implicações sociais nas mais variadas dimensões (da saúde à privacidade, à empregabilidade e outras) e a forma como se imagina o futuro neste novo paradigma.

Entre abril e junho, o ciclo divide-se em três momentos, cada um com um programa duplo: um debate com vários oradores do meio académico e empresarial e uma grande conferência.

17 ABR QUA

16:00 APLICAÇÕES
18:30 APLICAÇÕES (AS BOAS E AS MÁS) com Mário Figueiredo

15 MAI QUA

16:00 IMPLICAÇÕES
18:30 A ASCENSÃO DOS ROBÔS com Martin Ford

05 JUN QUA

16:00 ESPECULAÇÕES
18:30 INTELIGÊNCIA ARTIFICIAL HUMANO COMPATÍVEL com Stuart Russell

 

PARCERIA

Fidelidade - Companhia de Seguros
Culturgest

PARCERIA CIENTÍFICA

Instituto Superior Técnico da Universidade de Lisboa

CONSULTORES CIENTÍFICOS

Arlindo Oliveira (IST), Ana Paiva (IST), Mário Figueiredo (IST)

CURADORIA

Arlindo Oliveira, Ana Paiva, Liliana Coutinho, Mário Figueiredo

Ciclo Fidelidade - Culturgest

Partilhar Facebook / Twitter