ARLA/CLUSTER: O mistério de como a Inteligência Artificial aprendeu a fazer batota.?

João Costa > CT1FBF ct1fbf gmail.com
Terça-Feira, 8 de Janeiro de 2019 - 13:39:21 WET


AI de conversão de mapas da Google aprendeu a fazer batota
<https://abertoatedemadrugada.com/2019/01/ai-de-conversao-de-mapas-da-google.html>

<https://abertoatedemadrugada.com/2019/01/ai-de-conversao-de-mapas-da-google.html>

Nos últimos anos temos assistido à aplicação de Inteligência Artificial
para tudo, mas nem sempre os resultados são aqueles que se esperam, como
uma equipa do Google Maps descobriu.

O caso remonta a 2017 mas continua a ser tão curioso hoje como o foi na
altura. Para acelerar o processo de criação dos mapas, a Google decidiu
recorrer a um sistema de inteligência artificial que tinha por objectivo
olhar para fotografias aéreas e convertê-las em representação cartográfica
das estradas, edifícios e outras áreas de interesse. Algo que o sistema até
conseguia fazer surpreendentemente bem.

Tão bem que a equipa decidiu investigar um pouco mais de perto o processo.
O problema com os sistemas de redes neuronais é que, para além de lhes
darmos milhares ou milhões de exemplos para "aprenderem", pouco ou nada
sabemos quanto a que o sistema está realmente a "pensar" (não no sentido
cognitivo, mas no sentido de processamento dos dados).

Para tentarem perceber um pouco mais do que estaria a fazer, a equipa
decidiu pedir ao sistema para fazer o trabalho inverso, de converter a
imagem dos mapas em fotografias aéreas novamente... e foi aí que
descobriram um grande mistério:

<https://4.bp.blogspot.com/-Tl_Fl0DTSUQ/XDKe6NOCsOI/AAAAAAAFNk0/Ke5kJ4buBHQvYkWCTA8DYWGCmQ8B01p2wCLcBGAs/s1600/mapdetails.jpg>

O sistema estava a conseguir recriar fotos aéreas com detalhes que seria
impossível saber
<https://techcrunch.com/2018/12/31/this-clever-ai-hid-data-from-its-creators-to-cheat-at-its-appointed-task/>
a
partir das imagens simplificadas dos mapas. Imagens no mapa de estradas e
parques davam origem a áreas com carros nos locais certos; telhados
"planos" de edifícios recuperavam milagrosamente janelas e outras
estruturas, etc. etc.

O que se veio a descobrir foi que o sistema não estava apenas a criar as
supostas imagens dos mapas, mas *incluía também informação escondida sobre
as fotos originais*.

<https://3.bp.blogspot.com/-a4ZlljX0sNo/XDKfAlAyRUI/AAAAAAAFNk4/4DdaLwbW884sqJwcoygj-v6-U11PPJHSgCLcBGAs/s1600/craftmaps.jpg>

Essa diferença tornava-se evidente quando se comparava o resultado do
sistema com uma imagem do mapa tal como seria esperado; e que revelava
diferenças de tonalidade imperceptíveis nos pixeis, que permitiam
reconstruir as fotos aéreas originais. No fundo, em vez de se limitar a
criar os mapas, o sistema aprendeu a fazer batota e a esconder a imagem
original na imagem que deveria ser um mapa "limpo".

Não é algo que o sistema tenha feito por "maldade" ou com qualquer
propósito secundário; mas que serve para mostrar que, quando se quer
ensinar uma máquina usando exemplos, nem sempre aquilo que ela aprende é
aquilo que nós queremos ou que pensamos que ela aprendeu. No fundo...
demonstra a pouca inteligência que as nossas inteligências artificiais têm.
-------------- próxima parte ----------
Um anexo em HTML foi limpo...
URL: http://radio-amador.net/pipermail/cluster/attachments/20190108/37d18d18/attachment.htm


Mais informações acerca da lista CLUSTER