Palestrantes no evento discutem as formas com que a tecnologia mexe com nosso consumo diário de informação.
Um dos assuntos mais fortes no SXSW 2022 é a verdade. Ou o que pensamos que é verdade.
Pensadores como Tristan Harris, Frances Haugen, Maria Ressa e Peter Pomerantsev falaram no evento sobre um tema que vem sido discutido há algumas edições mas que penso ter chegado no seu ápice nesta, até por conta do contexto da guerra na Ucrânia: o quanto o progresso da tecnologia tem diminuído nossa capacidade de saber o que é real e o que é desinformação. Nossos modelos mentais, segundo Harris (e quem assistiu “O Dilema das Redes” já o conhece bem), simplesmente não são capazes de discernir mais.
Ele diz que estamos num momento em que a humanidade lida com emoções como se estivesse na era paleolítica, tem instituições medievais mas em que produzimos tecnologia num patamar tão poderoso – que estamos começando a “brincar de ser Deus”. E que isso aconteceu porque todos nós estávamos esperando (e nos preparando) pro dia em que a tecnologia ia superar nossas virtudes, mas ninguém viu a tecnologia potencializar as fraquezas humanas até que fosse tarde.
Isso criou um fenômeno que Harris chama de “reality jamming” – em tradução livre, distorção de realidade. O resultado, que estamos vendo diariamente: as pessoas tem cada vez menos empatia umas com as outras.
Maria Ressa, uma jornalista filipino-americana que foi ganhadora do prêmio Nobel (o discurso dela de aceitação do prêmio é emocionante e pode ser visto aqui) , concorda. Ela fala que a desinformação é como a cocaína: se você usa uma vez, o risco é baixo. Se você usa com frequência, de um dia pro outro acorda viciado e perde o discernimento.
Ela diz que sem fatos e apuração, não há verdade. Sem verdade, não há confiança. E sem confiança, não há realidade compartilhada nem democracia. E que nós precisamos recuperar os “gatekeepers” responsáveis pela curadoria de conteúdo, mas que isso envolve sacrifícios de todos (especialmente das plataformas, que seguem otimizando seus algoritmos para gerar engajamento e acabam reforçando a polarização).
Frances Haugen, a última na série de “whistleblowers” do Facebook, falou detalhadamente sobre como isso acontece. A apresentação dela foi um baita resumo da série “The Facebook Files”, do Wall Street Journal. Ela trouxe uma estatística impressionante: em alguns lugares do mundo, 35% do que se vê na rede é algo que foi compartilhado por alguém – e não informação original.
Frances diz que os modelos de combate à desinformação atuais não funcionam porque não estão prontos para lidar com a diversidade linguística que temos no mundo. E que a moderação via IA não é viável porque textos curtos, como usualmente são os postados em plataformas, não tem contexto ou conteúdo suficientes para que o machine learning consiga discernir o joio do trigo.
Peter Pomerantsev, jornalista nascido na Rússia, trouxe o caminho que ele acredita ser necessário pra sairmos deste dilema: uma regulamentação que olhe pra relação entre informação, tecnologia, capital e democracia. Com isso, como disse Tristan Harris, teremos mais chances de lidar melhor com nossas emoções paleolíticas, atualizar nossas instituições e ter sabedoria suficiente para criar e usar o que ele chamou de “godlike technology”.
Fonte: ADNews