Através do chamado processamento de linguagem natural, a IA pode identificar desinformação, rastrear sua propagação e monitorar o cenário de informações digitais em tempo real. Mas tem seus limites.
No terceiro dia após a partida dos diques, em agosto de 2005, a desinformação em Nova Orleans sobre ilegalidade e saques era galopante. Tornou -se tão difundido que muitos esforços de recuperação após o aterrissagem do furacão Katrina foram interrompidos ou atrasados.
Em 2018, uma onda de incêndios na Califórnia provocou seu próprio aumento de desinformação. A representante dos EUA, Marjorie Taylor Greene (R-Ga.), Afirmou famosamente que “lasers espaciais judeus” e a família Rothschild eram os culpados pela devastação.
Desde rumores sobre a ilegalidade a tweets sobre incêndios espaciais a laser, os desastres naturais têm uma tendência comprovada de criar uma tempestade de desinformação que pode afetar a resposta de emergência.
Um estudo do Instituto Internacional de Análise do Sistema Aplicado (IIASA), uma instituição de pesquisa internacional com sede em Laxenburg, na Áustria, procura entender como as ferramentas de IA podem ser alavancadas para mitigar a desinformação se espalhou durante as situações de emergência. Liderada por Nadejda Kominging e Dmitry Erokhin, o estudo faz parte de um crescente campo de pesquisa na interseção de aprendizado de máquina e desinformação.
Estamos contratando!
Por favor, dê uma olhada nas novas aberturas em nossa redação.
Veja Jobs
“Esta pesquisa se originou do entendimento de que a desinformação durante os desastres naturais representa uma séria ameaça à segurança pública e a eficácia da resposta a emergências”, disse Komerdenda. “A urgência e a complexidade dessa questão tornaram -se especialmente aparentes nos últimos anos”, devido ao papel das mídias sociais e à crescente ameaça de clima extremo – o tempo que pode se tornar cada vez mais grave devido à impressionante demanda de energia da própria tecnologia de IA.
Financiado pela União Europeia, o estudo emprega uma análise de estudo de caso e design de revisão de literatura narrativa. Kominging e Erokhin examinam três ferramentas de IA: processamento de linguagem natural (PNL), algoritmos de aprendizado de máquina e sistemas de monitoramento em tempo real. Cada ferramenta tem um papel diferente a desempenhar na identificação de desinformação e mitigação de sua propagação.
A PNL permite que os computadores interpretem e analisem a linguagem humana em escala. “Uma das principais aplicações da PNL na detecção de desinformação é a análise de sentimentos”, explicam os pesquisadores. Isso significa que esses sistemas podem avaliar o tom das postagens on -line – categorizando -as como positivas, negativas ou neutras. Segundo os pesquisadores, um aumento no sentimento negativo em torno de um tópico específico pode sugerir uma enxurrada de reivindicações falsas. Como a PNL pode digitalizar enormes quantidades de conteúdo rapidamente, é uma ferramenta poderosa para rastrear a desinformação on -line.
Os algoritmos de aprendizado de máquina dão um passo adiante. Ao treinar em grandes conjuntos de dados, esses sistemas aprendem a reconhecer padrões em como as informações erradas normalmente se espalham. Eles podem sinalizar conteúdo semelhante no futuro e prever quais narrativas falsas ou teorias de conspiração podem surgir antes que o desastre ocorra. Os algoritmos de aprendizado de máquina também melhoram com o tempo, pois são alimentados com novos dados.
Finalmente, os sistemas de monitoramento em tempo real fornecem vigilância constante do cenário de informações digitais. Essas ferramentas digitalizam automaticamente sites, meios de comunicação e mídias sociais em busca de palavras -chave ou tipos de conteúdo específicos. “Ao coletar contínuo dados, os sistemas de monitoramento em tempo real podem garantir que eles tenham informações atualizadas sobre o estado atual de desinformação”, afirmam os pesquisadores. Depois que os dados são coletados, o sistema pode alertar as autoridades necessárias.
Apesar do progresso recente na capacidade da IA de detectar e combater a desinformação, cada uma dessas ferramentas tem limitações significativas.
A desinformação é frequentemente criada e espalhada intencionalmente. “As táticas em constante evolução daqueles que criam e disseminam informações erradas apresentam um desafio persistente aos sistemas de IA”, disse Komerdenda. “À medida que os atores de informação se adaptam ao desenvolver novas idiomas, imagens ou técnicas de disseminação, os modelos de IA devem ser atualizados e atualizados para reconhecer esses novos padrões”.
A própria IA tem sido cada vez mais usada para espalhar a desinformação por meio de contas de bot e imagens generativas, mas este estudo não se concentrou especificamente nessas técnicas de disseminação.
A IA também tem dificuldade em entender as nuances culturais na linguagem e o uso de ironia e sarcasmo por atores de informações erradas, limitando suas habilidades de detecção.
Independentemente dessas limitações, “o estudo constatou que a IA pode desempenhar um papel vital na detecção e mitigação de informações errôneas durante desastres naturais”, disse Komerondau, potencialmente ajudando as comunidades na linha de frente da crise climática a construir resiliência. Suas pesquisas descobriram que os algoritmos de aprendizado de máquina treinados fora de postagens de mídia social durante o furacão Harvey poderiam ser usados para identificar e prever a disseminação de informações falsas on -line – como relatórios imprecisos sobre evacuações obrigatórias e disponibilidade de abrigos – ajudando a conter o pânico e a confusão.
Mesmo antes do aumento da IA avançada, a tecnologia demonstrou seu potencial no combate à desinformação relacionada a desastres. Após o devastador terremoto do Haiti em 2010, o mapeamento de crise se mostrou vital para coordenar os esforços de socorro, segundo o estudo. A organização sem fins lucrativos Ushahidi lançou uma plataforma de mapeamento poucas horas após o terremoto de magnitude 7.0, usando dados de crowdsourcing de mensagens de texto, mídia social e meios de comunicação para identificar áreas com necessidade urgente. Hoje, a IA pode automatizar grande parte desse processo, reunindo, verificando e mapeando rapidamente as informações em tempo real.
Ao liberar o tempo vital, as ferramentas de IA “permitem que os atendentes de emergência priorizem seus esforços e alocem recursos com mais eficiência”, escrevem Kominging e Erokhin.
A IA Chatbots-os programas de computador que usam a IA para simular conversas semelhantes a humanos e responder aos usuários em tempo real-também foram implantados nos últimos anos para combater a desinformação de desastre natural.
Durante a pandemia da Covid, os chatbots da AI, como o “Coronabot” do Center for Disease Control, foram usados para ajudar a espalhar informações precisas e oportunas, na tentativa de combater teorias de conspiração generalizadas e construir confiança pública.
Da mesma forma, a Cruz Vermelha implantou seu chatbot, Clara, para combater as teorias da conspiração durante os duplos furacões de Milton e Helene em 2024. Nomeado em homenagem ao fundador da Cruz Vermelha Clara Harlowe Barton, o chatbot forneceu aos usuários informações precisas sobre abrigos, assistência financeira e serviços de emergência.
“Nossa pesquisa demonstra que a implantação da IA pode ajudar a melhorar a tomada de decisões durante as crises, garantindo que informações precisas e oportunas atinjam as pessoas afetadas”, disse Komerdenda.
O sucesso geral do uso de IA em ambientes de desastre depende dos desenvolvedores de tecnologia e da capacidade das agências de gerenciamento de emergência de criar confiança pública, de acordo com Komingingva e Erokhin.
“À medida que a IA se torna mais explicável e transparente, é provável que a confiança do público nessas ferramentas cresça”, disse Komerdenda.
Mas a confiança do público pode ser difícil de construir através da IA durante desastres naturais, disse Joseph Uscinski, professor da Universidade de Miami e especialista em teorias de conspiração e desinformação.
“Certamente é verdade que a IA pode convencer as pessoas a partir das teorias da conspiração, mas pode ser difícil durante os desastres naturais”, afirma USCinski. “As pessoas podem estar lidando com a ansiedade de tal maneira que mudar de idéia pode ser difícil.”
Aqueles que experimentam os efeitos de desastres e informações errôneas naturais podem não ter tempo ou recursos para acessar chatbots ou postagens de mídia social confiáveis, disse ele.
Além disso, os pensamentos conspiratórios são um produto das visões de mundo complexas das pessoas, incluindo a identidade do grupo e as crenças ideológicas. Essas crenças não são alteradas rapidamente e “as pessoas não andam por aí esperando a IA mudar de idéia”, disse USCinski.
Apesar de suas preocupações sobre o uso da IA em ambientes naturais de desastres, ele disse: “Certamente vale a pena tentar”.
O KOMENDERVA defende várias ações a serem tomadas para melhorar a confiança do público e a capacidade da IA de combater a desinformação de desastres naturais. Estes incluem práticas transparentes e éticas de IA, governança de dados, educação do usuário e regulamentação da IA.
À medida que o uso da IA continua a se desenvolver, as táticas de desinformação continuam a mudar e o clima severo continua a piorar, são necessárias mais pesquisas nessa área.
“Pesquisas futuras devem se concentrar em aprimorar o entendimento contextual da IA em cenários de desastres, desenvolvendo modelos mais robustos e menos tendenciosos e abordando preocupações de privacidade, transparência e justiça”, disse Komdendava. “O campo se beneficiará de um aumento da colaboração interdisciplinar, reunindo conhecimentos de ciência da computação, ciências sociais, gerenciamento de emergências e ética para desenvolver soluções práticas e holísticas”.
Com essas melhorias em mente, a KOMENDERVA está confiante de que a IA será incorporada com sucesso nas plataformas de gerenciamento e informação de resposta a emergências em um futuro próximo. Ela acha que a IA vai além de simplesmente detectar informações erradas e será usada para combatê-la efetivamente através de chatbots, mapeamento de crises e como um “parceiro de informações em tempo real” para equipes de emergência.
Sobre esta história
Talvez você tenha notado: esta história, como todas as notícias que publicamos, é livre para ler. Isso porque Naturlink é uma organização sem fins lucrativos de 501c3. Não cobramos uma taxa de assinatura, trancamos nossas notícias por trás de um paywall ou desorganizamos nosso site com anúncios. Fazemos nossas notícias sobre clima e o meio ambiente disponíveis gratuitamente para você e qualquer pessoa que o quiserem.
Isso não é tudo. Também compartilhamos nossas notícias gratuitamente com dezenas de outras organizações de mídia em todo o país. Muitos deles não podem se dar ao luxo de fazer seu próprio jornalismo ambiental. Construímos agências de costa a costa para relatar histórias locais, colaboramos com redações locais e co-publicamos artigos para que esse trabalho vital seja compartilhado o mais amplamente possível.
Dois de nós lançamos a ICN em 2007. Seis anos depois, ganhamos um prêmio Pulitzer para relatórios nacionais, e agora administramos a mais antiga e maior redação climática dedicada do país. Contamos a história em toda a sua complexidade. Responsabilizamos os poluidores. Expositamos a injustiça ambiental. Nós desmascaramos a desinformação. Nós examinamos soluções e inspiramos ações.
Doações de leitores como você financiam todos os aspectos do que fazemos. Se você já não o fizer, você apoiará nosso trabalho contínuo, nossos relatórios sobre a maior crise que enfrentam nosso planeta e nos ajudará a alcançar ainda mais leitores em mais lugares?
Por favor, reserve um momento para fazer uma doação dedutível em impostos. Cada um deles faz a diferença.
Obrigado,
