1 of 1

FECCIF24 – III Feira Estadual de Ciência e Cultura do IFSP – de 21 a 26 de Outubro de 2024

Este projeto investiga como a inteligência artificial (IA) influencia a percepção de estudantes de ensino médio e universitários de instituições públicas sobre imagens manipuladas. Dado o alto consumo digital pelos jovens, a dificuldade em distinguir imagens reais de geradas por IA e as implicações éticas e sociais ressaltam a importância do estudo. O objetivo é analisar como as imagens geradas por IA afetam a percepção dos estudantes, incluindo sua compreensão das técnicas de manipulação, percepções sobre autenticidade, e a capacidade de diferenciá-las de fotografias. A metodologia combinou métodos quantitativos e qualitativos, incluindo revisão bibliográfica e um questionário via Google Forms. Os resultados mostraram uma pontuação mediana de 30 em uma escala de 70 pontos para reconhecer se as imagens eram geradas por IA ou se tratavam de fotografias, com acertos variando entre 16,7% e 49,5%. Observou-se que 74,7% dos estudantes enfrentam desafios com a qualidade e o realismo das imagens geradas por IA, e 40,3% apontam a falta de um padrão universal como um obstáculo. Redes sociais (65,6%) e política (58,1%) foram identificados como os contextos mais afetados e a confiança de 72,7% dos estudantes em notícias visuais diminuiu devido às imagens geradas por IA. Os próximos passos incluem expandir a pesquisa para outras instituições públicas e criar um site para melhorar a identificação e interpretação de imagens digitais.

RESUMO

INTRODUÇÃO

OBJETIVOS

METODOLOGIA

PERCEPÇÃO DE ESTUDANTES DE ENSINO MÉDIO E UNIVERSITÁRIOS DE INSTITUIÇÕES PÚBLICAS SOBRE IMAGENS MANIPULADAS POR IA EM DIFERENTES CONTEXTOS

Yasmin Alves Novaes¹, Evellyn Costa Conceição ², Prof. Thiago Schumacher Barcelos3 (orientador)

1Instituto Federal de São Paulo, Guarulhos, Brasil - yasmin.novaes@aluno.ifsp.edu.br

2Instituto Federal de São Paulo, Guarulhos, Brasil - evellyn.conceicao@aluno.ifsp.edu.br

3Instituto Federal de São Paulo, Guarulhos, Brasil – tsbarcelos@ifsp.edu.br

A manipulação de imagens acompanha a história da fotografia desde o século XIX, quando fotógrafos começaram a explorar novas técnicas para ampliar as possibilidades do campo recém-descoberto. Com o advento dos computadores e o lançamento de softwares como Adobe Photoshop nos anos 1990, a manipulação digital tornou-se mais acessível, permitindo alterações realistas em fotos. No século XXI, a inteligência artificial (IA) revolucionou essa área com o desenvolvimento das Redes Generativas Adversariais (GANs), introduzidas por Ian Goodfellow e outros pesquisadores da Universidade de Montreal em 2014, permitindo a criação de imagens realistas a partir de grandes conjuntos de dados (REIS, 2019). Goodfellow et al. (2014, p. 3) explicam que essas imagens parecem autênticas porque os modelos são treinados até que seja difícil distinguir dados reais de falsos. Contudo, esse avanço levanta questões sobre a autenticidade das imagens e suas implicações sociais e políticas. A facilidade de criar deep fakes gera desconfiança e pode impactar a confiança pública nas informações (MUANIS, 2023).

O objetivo principal é analisar como imagens geradas por IA afetam a percepção dos estudantes, explorando especificamente sua compreensão e familiaridade com técnicas de manipulação, suas percepções sobre a autenticidade e veracidade dessas imagens em comparação com fotografias, sua capacidade de distingui-las e os fatores que influenciam essa habilidade.

A pesquisa bibliográfica foi a primeira etapa, revisando a literatura existente sobre manipulação de imagens, fotografia, IA generativa e deep fakes, com o objetivo de construir a base teórica da pesquisa. Foram utilizados livros, artigos acadêmicos, teses e publicações especializadas.

Posteriormente, foi utilizada como referência a pesquisa realizada por Aziz et al. (2024, p. 8-11), na qual foi aplicado um questionário denominado Visual Verity para coletar dados e elaborar conclusões sobre o fotorrealismo, a qualidade da imagem e o alinhamento texto-imagem das imagens geradas por IA. Com base nesse modelo, foi aplicado um questionário a estudantes do ensino médio e universitários de uma instituição pública da região metropolitana de São Paulo, utilizando o Google Forms. Os dados coletados foram analisados quantitativa e qualitativamente com o auxílio do Power BI e Google Planilhas.

A análise das respostas revelou uma grande discrepância entre a autopercepção dos participantes e seu desempenho real na identificação de imagens geradas por IA e fotografias. Embora 57% acreditassem ter pontuado entre 50 e 60 pontos e 32,3% entre 60 e 70 pontos, a pontuação mediana foi de apenas 30/70, indicando que, em média, os participantes identificaram corretamente apenas 3 das 7 imagens. Somente 1,61% alcançou a pontuação máxima, evidenciando a dificuldade de detectar imagens falsas e a necessidade de maior criticidade na análise de imagens.

Os acertos variaram de 16,7% (Imagem 2) a 49,5% (Imagem 5). A Imagem 2, a mais desafiadora, foi criticada por seu alto realismo e detalhes, enquanto a Imagem 5 foi a mais facilmente identificada devido à familiaridade dos estudantes com o prato específico. A familiaridade com técnicas como Redes Generativas Adversariais (GANs) variou: 51,6% tinham pouco conhecimento, 3,2% não conheciam e apenas 21% eram muito familiarizados.

A pesquisa mostrou que 74,7% dos estudantes consideram a qualidade da imagem e o realismo dos detalhes visuais como os principais desafios na identificação de imagens geradas por IA. Além disso, 40,3% apontaram a falta de um padrão universal como um obstáculo, revelando a necessidade de diretrizes claras e ferramentas eficazes para reconhecer manipulações. Redes sociais (65,6%) e política (58,1%) foram identificadas como as áreas mais afetadas e a confiança de 72,7% dos estudantes em notícias visuais diminuiu devido à criação de imagens por IA, mostrando a necessidade de maior transparência e melhores processos de verificação das informações visuais.

RESULTADOS E DISCUSSÕES

REFERÊNCIAS

CONCLUSÃO

Os objetivos da pesquisa foram atingidos, revelando a percepção atual e os desafios enfrentados pelos estudantes na identificação de imagens geradas por IA. O próximo passo é aplicar o questionário em outras instituições públicas, a fim de obter dados mais amplos e precisos. Em seguida, será criado um site dedicado à educação e análise crítica de imagens digitais.

AZIZ, M. et al. Visual Verity in AI-Generated Imagery: Computational Metrics and Human-Centric Analysis. Disponível em: https://arxiv.org/pdf/2408.12762. Acesso em: 6 set. 2024.

GOODFELLOW, I. J. et al. Generative Adversarial Networks. Disponível em: https://arxiv.org/abs/1406.2661. Acesso em: 28 jun. 2024.

MUANIS, F. Imagens, inteligência artificial e a incontornabilidade da metacrítica. RuMoRes, v. 17, n. 33, p. 35–57, jan/jun. 2023. Disponível em: https://revistas.usp.br/Rumores/article/view/210891/197974. Acesso em: 11 jun. 2024.

REIS, R. L. C. Seleção de portfólios usando redes neurais adversárias generativas para a modelagem do processo estocástico de retornos. 2019. Dissertação (Mestrado) – UFRJ - Universidade Federal do Rio de Janeiro, Rio de Janeiro. Disponível em: https://cos.ufrj.br/uploadfile/publicacao/2988.pdf. Acesso em: 12 jun. 2024.