top of page

Os algoritmos moldam a nossa visão do Mundo? Entrevista a Adolfo Mesquita Nunes

  • O Discreto
  • 2 days ago
  • 17 min read

Adolfo Mesquita Nunes lançou recentemente o livro Algoritmocracia. O Discreto esteve à conversa com o autor para discutir os principais temas abordados no livro. Do impacto real do algoritmo nas nossas opiniões, à regulação que deve existir para controlar este efeito, passando pelas técnicas mais eficientes para espalhar falsidades online, esta é uma entrevista atual e de grande relevância, que merece a atenção de todos.


A principal ideia que desenvolves no livro é que as nossas opiniões e formas de ver o mundo são cada vez menos independentes. E que isso é consequência de um ambiente digital que nos influencia brutalmente sem que nos demos conta. Que nos coloca em bolhas. Em que consistem estas bolhas?

 

Tenho de ir atrás! O nosso processo de formação de opinião foi sempre condicionado pelo contexto em que estamos, pelos amigos com quem falamos, pelos jornais que lemos, pelos programas de rádio e televisão que vemos. Nunca houve um tempo em que o nosso processo de tomada de decisão fosse isento de condicionamentos. O que se passa agora, quando o nosso processo de formação de opinião passa essencialmente pelo telemóvel, pelas redes sociais ou pelas plataformas eletrónicas, é que existe um condicionamento muito mais forte, muito mais acentuado do que no passado. E o que eu procuro explicar no livro é que alguém, um sistema, o algoritmo, escolhe por nós aquilo que todos os dias nós vamos ver no telemóvel. E cada um de nós vê coisas diferentes.

 

E, portanto, este é um condicionamento que nós não vemos, nós não sabemos o que é que os algoritmos escolhem não nos mostrar. É bastante mais opaco, nós não sabemos quem são as empresas que fazem estas escolhas, quando antes sabíamos quem eram os diretores de jornal. E é muito persuasivo, porque são algoritmos pensados para nos impactar a nós em particular. E é isso que cria um ambiente de condicionamento que é novo.

 

E que cria as bolhas?

 

Exatamente, porque os algoritmos com recurso a inteligência artificial vão criando um conhecimento muito grande sobre aquilo que nós gostamos de ver, aquilo que mais nos agarra ao telemóvel, aquilo que nos deixa mais presos. E põe-nos em contacto com pessoas que têm o mesmo tipo de reações e o mesmo tipo de interesses. De tal forma que o conteúdo que nos é dado é um conteúdo que nos fecha numa bolha onde falamos e estamos com pessoas que vêm a realidade da mesma forma que nós e perdemos o contacto com as pessoas que vêm o mundo de forma diferente. Não só perdemos o contacto com elas, não é tanto assim, como, e sobretudo, perdemos o contacto com a sua forma de ver o mundo.

 

E como é que funciona o algoritmo?

 

No fundo, o algoritmo está sempre a medir o tempo, as reações da nossa presença digital. E vai anotando informações. Sabe que tipo de conteúdos vemos, a que horas vemos, a paciência que temos para ver vídeos, até que minuto gostamos de ver, que tipo de vídeos gostamos de ver, que tipo de temas nos interessam. E, portanto, utiliza essas informações para nos continuar a dar coisas que nos interessem. E isto tem um aspeto positivo: Se eu gosto de jazz, vou ser encaminhado para mais músicos de jazz, em vez de ser encaminhado para música de heavy metal, que não me interessa. Tem este aspeto positivo.

 

Mas de uma escala mais global, vai fazer com que fiquemos presos, daí a bolha, àquilo que já é a nossa visão do mundo, aquilo que confirma a nossa visão do mundo e nos afaste de coisas que nos desafiem, que nos contradigam e que nos façam pensar.

 

Por um lado, o algoritmo tem esta particularidade. Mas o algoritmo está pensado para nos deixar o máximo de tempo possível agarrados à net, à plataforma. Chama-se a economia da atenção. Portanto, eles estão programados para nos fazer ficar o máximo de possível agarrados. Ora, o que é que nos deixa mais agarrados?

 

E este é outro efeito dos algoritmos. Nós somos muito mais propensos a carregar em notícias, vídeos, links que nos provocam, que nos causam medo, que nos causam ressentimento, que nos surpreendem, que são insólitos. E tudo aquilo que é moderado, sensato, em última instância verdadeiro, não nos impele a carregar. Porque é menos impactante.

E, portanto, se eu clico num link que me diz: “Estudo mostra que vacinas provocam cancro”. O algoritmo regista que eu gosto deste tema e programa-se para me dar mais conteúdo sobre vacinas e cancro. Isto é, aquilo que passou por ser um clique inicial sobre uma notícia que me causou espanto, vacinas e cancro, vai-me levar num percurso informativo em que eu rapidamente estou imerso na convicção de que vacinas causam cancro.

 

Muita gente nega a ideia de estar numa bolha por ver e consumir vários conteúdos com que discorda.

 

As bolhas e os algoritmos não nos dão apenas conteúdos com os quais nós estamos de acordo. Dão-nos também conteúdos que nos causam enorme repulsa, precisamente porque nós clicamos nesses conteúdos. Ou seja, no que se refere à política, eles não nos dão apenas conteúdos que mostram os políticos com os quais nós concordamos, dão-nos também conteúdos chocantes dos adversários políticos que temos. E isso faz com que nós deixemos de ouvir algo sensato que o nosso opositor político está a dizer, para só ouvirmos o mais caricato.

 

Portanto nós passamos a construir uma imagem do nosso opositor, não como adversário, mas como inimigo. E isso tem impacto político na polarização. Nós passamos a ver as pessoas que pensam de forma diferente, como pessoas que vivem num mundo à parte, que não têm preocupações legítimas. E de certa forma vivem num mundo à parte, porque as nossas realidades informativas vão ficando cada vez mais fechadas.

 

As pessoas são algo céticas quanto à influência dos algoritmos nas suas opiniões. Acham que escolhem aquilo que veem e consomem online. Como é que se faz acreditar que não é bem assim?

 

Nenhum de nós gosta de pensar que está a ser influenciado pelos algoritmos. Nós gostamos de pensar que somos nós que escolhemos aquilo que vemos e aquilo que lemos. Mas o exercício que eu peço às pessoas que façam é de fazerem uma pergunta simples: “Quem é que escolheu estas notícias que me aparecem aqui no telemóvel? Quem é que me está a recomendar que veja este vídeo e não outro?”. E que pensem que por cada vídeo que um algoritmo nos recomenda, há milhões e milhões de vídeos que o algoritmo escolheu não nos recomendar. E, portanto, sim, nós somos profundamente influenciados porque alguém, um sistema, escolheu aquilo que nós podemos ver.

 

É a mesma coisa que ir uma loja e o vendedor nos mostrar cinco camisas para escolhermos. Nós temos a ilusão de que estamos a escolher livremente uma das cinco camisas. O que ele não nos diz é que há mais de 400 mil camisas que ele optou por não nos mostrar. E aí nós percebemos que a nossa escolha foi, de facto, muito mais limitada e muito mais condicionada: só escolhemos uma entre cinco e não uma entre 400 mil.

 

Passando para a questão da verdade e da mentira. A meia-verdade é um dos conceitos do livro que mais me fascinou. Consegues explicar em que é que consiste?

 

Imagina um estudo científico que mostra que as vacinas podem ter efeitos adversos em 0,05 % dos casos, com manifestações oncológicas. Esse estudo é real, ele existe. E há dois jornalistas que escrevem uma notícia sobre ele. Um diz: “Estudo mostra que vacinas podem causar efeitos oncológicos em 0,05 % dos casos”. E o outro escreve: “Estudo mostra que vacinas podem causar cancro”. Estes dois títulos são colocados online à mesma hora, e os algoritmos não têm nenhuma preferência.

 

Mas os algoritmos vão medir qual é aquele que tem mais cliques. E aquele que terá mais cliques, como deves imaginar, é o segundo. Porquê? Porque é aquele que nos assusta, é aquele que é mais insólito, é aquele que nos leva a carregar num link tal como eu disse há pouco. E o que é que o algoritmo vai notar? Vai notar que ele é o mais clicado e, portanto, vai dizer: É este link que é mais interessante. Vai disponibilizar essa notícia a muito mais gente. Vai colocar isso nos nossos telemóveis porque olha à volta e vê que é o link onde nós clicamos mais.

 

Podíamos pensar: “Mas alguém podia estar a fiscalizar este conteúdo e eliminar aquilo que é falso”. Mas este título não é necessariamente falso. O título é claramente enganador, ele é claramente manipulador de emoções, mas em última instância o estudo prova que as vacinas podem, efetivamente, causar cancro, ainda que só em 0,05 % dos casos. Eu chamo a isto meia-verdade, isto é, pegar num facto, mas contá-lo, contextualizá-lo, de uma forma que quer criar uma mentira. Sem que seja, tecnicamente, uma mentira.

 

Por isso é que eu falo de meias-verdades. E elas são as mais perigosas. Porque uma mentira, nós ainda podemos, por instrumentos jurídicos, tentar que ela possa ser retirada. Uma meia-verdade tem sempre a defesa de que eu me limitei a interpretar um estudo. E isso é muito mais difícil de controlar. Com a circunstância de que já falámos, de que esta meia-verdade tem todas as condições para ser viral, ao passo que a verdade, é muito mais chata, muito mais sem sabor, muito mais insonsa, não passa.

 

E há agentes políticos que dominam esta técnica?

 

A partir do momento que os agentes políticos, mas não só, se apercebem como é que os algoritmos funcionam, adaptam-se a eles. Todos nós nos adaptamos ao algoritmo. Quando tu escolhes a tua melhor fotografia para colocar no Instagram, tu estás-te a adaptar ao algoritmo. Tu já percebeste quais é que são os estilos de fotografias que as pessoas mais fazem likes. E como queres ter likes, tu escolhes a tua melhor fotografia.

 

Da mesma maneira, políticos, jornalistas, comentadores percebem quais é que são os estilos, as frases, os temas que os algoritmos mais privilegiam e, portanto, adaptam-se. E passam a utilizar uma linguagem muito mais agressiva, porque os algoritmos dão prioridade à linguagem agressiva. Passam a ter uma visão muito mais binária do mundo, porque são as histórias que os algoritmos privilegiam mais. Toda a cena política passa a ficar mais poluída por meias-verdades.

 

Não é surpresa, por isso, para mim, que hoje olhemos para o comentário político e vejamos os comentadores políticos com palavras, tons e até gestos muito mais agressivos do que há 5 ou 10 anos. Porque já aprenderam que é isso que torna depois os seus vídeos mais virais. E se ficaram mais virais continuam a ser convidados para ir à televisão falar. Da mesma forma que antes os políticos tentavam adaptar-se aos jornalistas e procuravam criar soundbites para que os jornalistas pegassem.

 

Questão diferente que se prende com esta é como é que agentes maliciosos, percebendo como é que funcionam os algoritmos, podem pôr conteúdo a circular para ele “viralizar” e assim condicionar o nosso processo de tomada de decisão. Há estudos, relatórios da Comissão Europeia, que mostram como potências estrangeiras em vésperas de atos eleitorais põem muito conteúdo a circular no sentido de nos influenciar a votar não no Partido A ou no Partido B, mas em partidos que tocam mais em determinado tipo de problemas.

 

A propósito da mentira em política, o que temos visto é que vale a pena mentir. Temos exemplos de políticos que são continuamente desmentidos publicamente, mas continuam a mentir. Ou seja, percebem que o benefício da mentira é maior do que o custo do desmentido. Como é que se explica este fenómeno?

 

Porque nós carregamos no que é insólito, naquilo que nos provoca, naquilo que nos causa medo. Portanto, nesta ideia de que as vacinas causam cancro, as pessoas tenderão a fazer títulos deste género porque são eles que vão espalhar mais e trazer mais leitores para o site que publica essa notícia.

 

Os algoritmos não fazem mínima ideia se aquilo é verdade ou mentira, nem têm como saber. A única coisa que eles sabem é que aquilo tem cliques. E se tem cliques, dá mais. Continua a colocar.

 

Quando eu começo a consumir estas notícias das vacinas e do cancro, entro, de facto, nesta bolha de pessoas que pensam o mesmo. Significa que quando aparece um desmentido, o desmentido também vai ter de passar pelo filtro dos algoritmos. E se pouca gente carrega naquele desmentido, e sobretudo se pouca gente da minha bolha carrega naquele desmentido, aquele desmentido pode nem sequer nunca me aparecer nas minhas redes sociais.

 

Ou seja, o desmentido pode correr até nas bolhas que se opõem a esta minha ideia e toda a gente partilha esse desmentido, mas ele não entra na minha bolha porque o algoritmo acha que na minha bolha ninguém está interessado naquele título que ali está, que ele também não sabe o que é, e que por acaso é o desmentido.

 

O que faz com que em determinados segmentos eleitorais e em determinado tipo de percentagens eleitorais, um político tenha toda a vantagem em mentir, mesmo correndo o risco de ser desmentido. Porque o desmentido pode nunca chegar a entrar na bolha daqueles que são sensíveis à mentira.

 

Há um outro aspeto que tem a ver com a degradação das instituições. Isto aplica-se em particular aos populistas. Os populistas, a partir do momento em que criam uma história binária em que a imprensa está contra eles, os tribunais estão contra eles, o sistema está contra eles, isso também lhes permite que nas suas bolhas qualquer tipo de desmentido seja visto como mais uma prova de que o sistema está contra eles. Portanto, o desmentido acaba por alimentar a sua aura de vitimização, que o populista tende a utilizar.

 

E não corremos o risco de ficar tão cegos que já não conseguimos aceitar sequer as verdades mais básicas?

 

Repara! Se estivermos todos numa arena, uma pessoa que diga que a Terra é plana, essa ideia é livre, embora falsa, e nós habituámo-nos a tolerar estas ideias falsas por causa da liberdade de expressão, e bem, mas a arena onde estávamos todos, encarregava-se de reduzir essa pessoa ao ridículo ou à sua condição minoritária de achar que a Terra era plana.

 

Essa arena onde estamos todos deixou de existir, passaram a existir as bolhas, o que significa que a pessoa que diz que a Terra é plana vai estar na bolha em que todos acreditam que a Terra é plana. E, portanto, a contradição que permitia esclarecer que essa ideia era absurda, deixa de existir. E, portanto, vai confirmar a ideia e não contrariar. Nós vivemos de facto em realidades paralelas, em arenas separadas, o que vai fazer com que tenhamos cada vez mais propensão a aderir às ideias de forma afetiva e emocional e não em resultado do apuramento de um debate.

 

E sim, nós aí perdemos a capacidade de distinguir o que é verdadeiro e o que é falso. Se nós deixamos de acreditar no que dizem os tribunais, deixamos de acreditar no que diz a imprensa, deixamos de acreditar no que diz o outro, então o filtro para descobrir o que é verdade e o que é mentira vai-se perdendo, esses intermediários vão-se perdendo. E, portanto, sim, acabamos por estar com muito mais dificuldade a decidir o que é verdade e o que é mentira.

 

“Mas quem é que sabe o que é verdade?” Deve ser um contra-argumento que ouves regularmente.

 

O primeiro contra-argumento que eu costumo ouvir é: não, está bem, mas quem é que sabe o que é verdade? Mas quem és tu para dizer o que é verdade? E porque é que não há de ser a minha verdade? Nós podemos não saber o que é a verdade, mas temos métodos para podermos aproximar-nos da verdade. E a regra é: tudo o que tens de dizer, tens de demonstrar. Se não consegues demonstrar, não podes impor. Ora, nós estamos a deixar que esse método vá ao ar. E a permitir que sejam as emoções a definir o que é verdade ou mentira.

 

Por exemplo, o tribunal. Nós sabemos que os tribunais não estão sempre certos, e é por isso que criámos instâncias de recurso, para se poder recorrer. Mas nós obrigamos os tribunais a seguir um método, a seguir um processo, precisamente porque mesmo sabendo que os tribunais podem nunca chegar à verdade, pelo menos temos de ter um processo que nos possa aproximar de lá. Se nós passamos a descartar aquilo que dizem os tribunais, não com base em conseguirmos provar que estão errados, mas apenas porque é um tribunal e não me apetece acreditar, nós vamos perdendo as referências, os intermediários.

 

Eu só quero é deixar claro que eu nunca defendo no livro, que há uma verdade. Nem que eu é que sou o guardião da verdade e quem pensa de forma diferente é populista. Não, o que eu digo é que, na arena comum, no debate comum, é possível irmo-nos aproximando da verdade porque vamos debatendo e vamos provando se as nossas ideias estão falsas ou erradas.

 

E perdemos a arena comum.

 

Dou um exemplo: imagina uma manifestação em que houve violência, em que houve manifestantes que partiram lojas e houve polícias que bateram em manifestantes. Antes, nós víamos uma reportagem sobre essa manifestação e podíamos ter opiniões diferentes sobre a manifestação. Eu podia estar muito mais sensível aos polícias porque a minha ideologia assim o diz e tu podias estar mais sensível aos manifestantes porque a tua ideologia assim o diz. E quando nos encontramos para falar sobre a manifestação, tínhamos opiniões diferentes, mas víamos a mesma coisa.

 

Hoje passa-se outra coisa, nas minhas redes eu só vejo os policias a levarem de manifestantes, nas tuas redes tu só vês manifestantes a levarem da polícia. Quando nos encontramos para conversar sobre a manifestação, nós achamos que o outro está maluco porque estamos a falar de coisas completamente diferentes.

 

Eu nem sequer percebo como é tu podes estar a defender os manifestantes, quando nos meus filmes os manifestantes foram os maus da fita. Agora imagina isto repetido à exaustão, em que nós vamos, de facto, viver em mundos paralelos, em que não nos conseguimos encontrar porque já não vimos as mesmas coisas. Ter opinião diferente sobre as coisas é algo distinto disto. Isto é nem sequer ver as mesmas coisas.

 

E os deepfakes (conteúdos digitais – vídeos, áudios ou imagens – que foram manipulados ou gerados artificialmente através de IA para parecerem extremamente realistas)? Qual é a sua importância?

 

Para mim, o maior desafio dos deepfakes é criar este caldo em que nós deixamos de conseguir perceber o que é verdade ou que é mentira. E, portanto, vamos passar a escolher acreditar naquilo que mais nos convém.

 

É verdade que a inteligência artificial também vai avançar no sentido de instrumentos para nos ajudar a perceber se um deepfake é verdadeiro ou falso. Mas mesmo a inteligência artificial também se encargará de criar ainda melhores métodos para escapar aos métodos que a própria inteligência artificial criou para detetar. E por isso vai ser uma corrida sem fim, que a sociedade vai ter de se habituar a encontrar forma de lidar.

 

Eu acho que isso é problemático, porque nós até hoje fomos acreditando nos nossos olhos, nos nossos ouvidos, nos tribunais, nas instituições, como intermediários que nos ajudam a descobrir o que é que é a verdade. E estamos a perder esses intermediários. E isso faz com que sejamos deixados à nossa sorte. Depois, a nossa natureza humana é de continuarmos a clicar naquilo que é meio a verdade.

 

Basta fazermos um exercício de reflexão sobre o estilo de vídeos que que clicamos e percebemos também como de repente tudo é muito mais conflitual. E o meu livro é para tentar expor isso.

 

Passando à regulação e ao controlo. Eu diria que uma pessoa que leia esta entrevista, e que não esteja propriamente dentro do tema, dirá: “A solução é simples, tudo o que for publicado online que seja mentira deve ser identificado e aparecer como tal no feed de todos os utilizadores”. Mas isto é utópico. Por onde é que passa a solução mais real e possível?

 

Isso é utópico, precisamente porque o problema não está só nas mentiras, está nas meias-verdades e essas nós não podemos censurar com a desculpa de que está descontextualizado. Passamos então a ter uma censura e isso é uma coisa inaceitável. Começar a ter censores a escolher o que as redes publicam e o que as redes não publicam não é aceitável.

 

Isto acontece, esta polarização, esta circulação da mentira e da meia-verdade, esta radicalização, não porque necessariamente os algoritmos queiram que seja esse o resultado, mas em função da economia da atenção que é o seu modelo de negócio.

 

E, portanto, em última instância, somos nós que clicamos. Somos nós que estamos a querer clicar naquilo. E por isso é muito difícil de regular isto. A que propósito é que nós vamos impedir os algoritmos de nos darem conteúdo que, em última instância, nós queremos clicar? Ninguém nos obriga a carregar.

 

E a solução?

 

Eu acho que há aqui dois ou três caminhos que é importante explorar. O primeiro é que as pessoas percebam que é o algoritmo ou são os algoritmos que escolhem tudo por elas. Que reduzem, não é escolhem tudo, é que reduzem o seu nível de escolha de uma forma bastante robusta.

 

E, portanto, nós temos de reclamar a nossa liberdade de volta. Nós temos de dizer: “Eu quero ter poder sobre os algoritmos, eu quero poder escolher mais coisas, eu quero poder personalizar a forma como as coisas me aparecem no telemóvel”. Mas personalização a sério, não é apenas dizer este assunto não me interessa, sem sequer perceber qual é a conclusão que o algoritmo vai tirar de eu dizer que aquilo não me interessa.

 

Isto eu acho que é algo que não é utópico, é algo que está dentro dos valores de uma democracia liberal, portanto não tem nada a ver com proibição de conteúdos, com censura, tem a ver com liberdade individual, de eu poder selecionar aquilo que vejo de alguma forma.

 

Eu escolhia os jornais que comprava e agora não consigo escolher aquilo que me aparece. Vou-te dar um exemplo. Nestas eleições presidenciais houve um candidato, o João Cotrim de Figueiredo, que publicamente se queixou de que não estava a ter as mesmas oportunidades televisivas, que estavam a ser dadas a outros candidatos que, de acordo com ele, tinham menos hipóteses do que ele de chegar à segunda volta. Ou iguais hipóteses. O João pôde fazer isso, identificando responsáveis e apontando o dedo, porque nós sabemos quem são as televisões e os seus diretores de informação.

 

E se ele quiser queixar-se dos vídeos dele não aparecerem nos telemóveis das pessoas? Queixa-se a quem? Nós não sabemos a quem. Nós não temos poder. E isto, para algo que condiciona tanto o nosso processo de formação de opinião e de reflexão sobre o mundo, acho que nos devia fazer pensar.

 

Porque a opção não pode ser sair das redes sociais. Porque isso é uma opção binária, essa sim é outra opção utópica. Portanto, esta é uma via que eu acho que se devia explorar.

 

E o segundo caminho?

 

É nós conseguirmos adaptar as regras que temos, os princípios que temos e que aplicamos à comunicação social, também às redes sociais. Até agora, as redes sociais, ou as plataformas eletrónicas, vinham dizendo que não eram comparáveis a um jornal e as suas obrigações, as suas transparências, as obrigações de contraditório, etc. Porque as redes sociais eram meras montras, não tinham nenhum poder de edição, não tinham nenhuma curadoria, e, portanto, elas eram meros recetáculos.

 

Portanto, os responsáveis eram as pessoas que lá punham coisas. Até haver algoritmos isso era verdade. Isto é, eram meras redes que não selecionavam nada para nós. E nós víamos as coisas por ordem cronológica, ou o que quer que fosse. A partir do momento em que o conteúdo que nos aparece é, ainda que de forma orgânica e automática, organizado e curado por algoritmos, então já há o conteúdo editorial.

 

Então, se calhar, devemos olhar para esta nova realidade e dizer que não, há aqui um conjunto de obrigações e princípios que nós aplicamos no mundo físico, aos jornais, às rádios, aos meios de comunicação, que se calhar, com adaptações, temos que aplicado aqui também. E eu acho que essa é uma outra reflexão que se devia fazer.

 

Qualquer uma destas reflexões implica uma primeira, que é aquela para a qual eu procurei contribuir com o livro, é dizer: “Nós temos um problema. Isto é um problema!”.

 

E eu não estou certo de que a maior parte das pessoas ache que temos um problema. O livro é um pouco uma forma de convidar as pessoas a reconhecer que temos um problema e a debatermos soluções, porque pode haver soluções melhores do que estas que eu aqui estou a dizer, mas para isso precisa de haver debate, para haver debate é preciso que o tema entre na agenda.

 

E como é que se coloca o tema na agenda?

 

Olha, hoje oiço mais sobre isto, também estou muito sugestionado. Costuma-se dizer que quando uma pessoa compra um carro, depois na rua está sempre a ver modelos iguais àqueles que comprou. E eu escrevi um livro sobre algoritmos e agora também oiço muito sobre algoritmos.

 

E o algoritmo também sabe que te interessas por algoritmos.

 

O algoritmo também sabe que eu gosto deste tema e, portanto, também me dá mais. Não, mas acho que começa a surgir já no debate público esta ideia. Quando se está a falar da proibição das redes sociais aos jovens, com menos de 16 anos, está também entrar-se neste género de assuntos e neste género de problemas. A ideia de que há aqui qualquer coisa que está a ter consequências na nossa sociedade e para o qual nós precisamos de olhar com alguma atenção. Os algoritmos, eu utilizo muito esta expressão, eles são feitos por prémios Nobel. Isto é, eles não são apenas persuasivos, eles são mesmo cientificamente feitos para nos agarrar.

 

Temos de olhar para esta realidade sabendo disso e procurando encontrar respostas para preservarmos o modelo de sociedade que temos. Isto é empírico, como é evidente.

 

Mas eu olho à minha volta e penso que o nível de conflito político é hoje muito maior do que era antes e aquilo que procuro dizer no livro é que isso não é uma fase. Não estamos a passar por uma fase, estamos a passar pelo resultado de uma estrutura algorítmica de acesso à informação e à formação da opinião.

 

A Algoritmocracia é já uma nova forma de poder?

 

É uma forma de poder, não tenho dúvida alguma. Se nos dissessem que o Estado decidia todos os dias que vídeos víamos, que notícias víamos, a que horas víamos. Se estivesse a medir tudo, as nossas reações, o tempo de visualização, para nos dar ainda mais conteúdos que nos possam impactar mais.

 

Se nos dissessem que era o Estado que estava a fazer isto, nós achávamos que vivíamos numa ditadura. Pois bem, não é o Estado, é um sistema algorítmico que não tem necessariamente de ter uma entidade por detrás a querer um objetivo em particular, mas os efeitos de influência, de condicionamento e de manipulação estão cá e eles deviam preocupar-nos.


 
 
 

1 Comment


Guest
a day ago

Excelente!! Não podia ser mais atual. Muito bem conduzida pelo entrevistador.

Like
bottom of page