Corpos a margem no Instagram
(in)visibilidade, controle e vigilância no dispositivo algorítmico
DOI:
https://doi.org/10.14393/HTP-v7n1-2025-77084Palavras-chave:
Estudos Discursivos Foucaultianos, Instagram, Dispositivo Algorítmico, Corpos MarginalizadosResumo
A Inteligência Artificial (IA) surgiu no século XX com a proposta de ensinar máquinas a simular a inteligência humana (McCarthy et al., 2006). Nas últimas décadas, esta tecnologia evoluiu e passou a desempenhar um papel central na gestão da vida pública e privada (Vicente, 2024). Os algoritmos, responsáveis por organizar e filtrar dados, são parte essencial desse processo, controlando fluxos de informação e mapeando preferências (Gillespie, 2014). Nas redes sociais, atuam por meio de sistemas de recomendação que personalizam o conteúdo exibido aos usuários, criando os chamados “filtros bolha” (Pariser, 2011). Em uma sociedade algorítmica, esses sistemas podem ser compreendidos como novos procedimentos discursivos, pois controlam, selecionam, organizam e redistribuem dados, definindo o que aparece, para quem e quando. Analisando essa dinâmica sob a ótica dos Estudos Discursivos Foucaultianos, especialmente mobilizando os conceitos de discurso, poder, controle e formação de subjetividades, este artigo problematiza a interferência da IA nos discursos disseminados no Instagram, com foco em temas relacionados a grupos marginalizados. Parte-se da hipótese de que as redes sociais, além de espaços de expressão, funcionam como plataformas que moldam a circulação discursiva conforme as lógicas algorítmicas e comerciais das plataformas. Exemplo disso é a prática de shadowbanning, que atua como um mecanismo contemporâneo de exclusão discursiva. Como conclusão preliminar, observa-se que os algoritmos, ao limitarem o alcance de certos discursos, atualizam, sob novas condições técnicas, os procedimentos de exclusão descritos por Michel Foucault (1996).
Referências
ARAÚJO, C.; ROCHA, C. S.; MARCON, M. A. C.; RODRIGUES, O. A noção de sujeito algoritmizado e sua implicação na cultura digital. 2021. DOI: https://doi.org/10.5281/zenodo.5803471
BISHQEMI, K.; CROWLEY, M. TikTok vs. Instagram: Algorithm comparison. Journal of Student Research, v. 11, n. 1, 2022. DOI: https://doi.org/10.47611/jsrhs.v11i1.2428.
CHANTÉ, J. Instagram's murky 'shadow bans' just serve to censor marginalised communities. The Guardian, 8 nov. 2019. Disponível em: https://www.theguardian.com/commentisfree/2019/nov/08/instagram-shadow-bans-marginalised-communities-queer-plus-sized-bodies-sexually-suggestive. Acesso em: 24 out. 2024.
COULDRY, N. Media, society, world: Social theory and digital media practic. Cambridge: Polity, 2012.
CRAWFORD, K. Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. New Haven; London: Yale University, 2021. DOI: https://doi.org/10.12987/9780300252392
DYSON, G. Turing's cathedral: The origins of the digital universe. New York: Pantheon Books, 2012.
EUBANKS, V. Automating inequality: How high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press, 2018.
FOUCAULT, M. Technologies of the self. In: MARTIN, L.; GUTMAN, H.; HUTTON, P. (ed.). Technologies of the self: A seminar with Michel Foucault. London: Tavistock, 1988, p. 16-49.
FOUCAULT, M. A ordem do discurso. São Paulo: Loyola, 1996.
FOUCAULT, M. A arqueologia do saber. 7. ed. Rio de Janeiro: Forense Universitária, 2008a.
FOUCAULT, M. Outros espaços. In: Ditos e escritos II. Rio de Janeiro: Forense Universitária, 2008b, p. 415-432.
FOUCAULT, M. O jogo de Michel Foucault. In: Ditos e escritos IX: Genealogia da ética, subjetividade e sexualidade. Rio de Janeiro: Forense Universitária, 2010, p. 119-140.
FOUCAULT, M. O que são as luzes? In: Ditos e escritos IV: Estratégia, poder-saber. Rio de Janeiro: Forense Universitária, 2010, p. 334-351.
FOUCAULT, M. Vigiar e punir: Nascimento da prisão. 42. ed. Petrópolis: Vozes, 2014.
FOUCAULT, M. Microfísica do poder. 10. ed. Rio de Janeiro: Edições Graal, 2019.
GILLESPIE, T. The politics of ‘platforms’. New Media e Society, v. 12, n. 3, p. 347-364, 2010. DOI: https://doi.org/10.1177/1461444809342738
GILLESPIE, T. The relevance of algorithms. In: GILLESPIE, T; BOCZKOWSKI, P.; FOOT, K. (ed.). Media technologies: Essays on communication, materiality, and society. Cambridge, Massachusetts: MIT Press, 2014, p. 167-193. DOI: https://doi.org/10.7551/mitpress/9780262525374.001.0001
INSTAGRAM. Help Center: “Por que algumas publicações no Instagram não estão aparecendo nos resultados da pesquisa e no Explorar”. 2024. Disponível em: https://help.instagram.com/613868662393739. Acesso em: 28 out. 2024.
KAUFMAN, D. Desmistificando a inteligência artificial. Belo Horizonte: Autêntica, 2022.
LEMOS, A. Dataficação da vida. Civitas: Revista de Ciências Sociais, v. 21, n. 2, 2021. DOI: https://doi.org/10.15448/1984-7289.2021.2.39638
MAYER-SCHÖNBERGER, V.; CUKIER, K.. Big data: Como extrair volume, variedade, velocidade e valor da avalanche de informação cotidiana. Rio de Janeiro: Elsevier, 2013.
MCCARTHY, J.; MINSKY, Marvin L.; ROCHESTER, N.; SHANNON, C. E. A proposal for the Dartmouth summer research project on artificial intelligence, August 31, 1955. AI Magazine, v. 27, n. 4, p. 12, 2006.
MICHIE, D. Machine intelligence 3. Edinburgh: University Press, 1968.
MIDDLEBROOK, C. The grey area: Instagram, shadowbanning, and the erasure of marginalized communities. 2020. DOI: http://dx.doi.org/10.2139/ssrn.3539721
NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. New York: NYU Press, 2018. DOI: https://doi.org/10.18574/nyu/9781479833641.001.0001
PARISER, E. The filter bubble: What the internet is hiding from you. New York: Penguin, 2011. DOI: https://doi.org/10.3139/9783446431164
PASQUALE, F. The black box society: The secret algorithms that control money and information. Cambridge: Harvard University Press, 2015. DOI: https://doi.org/10.4159/harvard.9780674736061
PEN AMERICA. Building resilience: Countering disinformation and its impact on marginalized communities. 2021. Disponível em: https://pen.org/report/building-resilience/. Acesso em: 5 out. 2024.
PRIMO, G. Práticas de engajamento e a virtualização da experiência de si: uma análise sobre os novos modos de subjetivação na era dos algoritmos. Revista Opinião Filosófica, v. 13, p. 1-19, 2022. DOI: https://doi.org/10.36592/opiniaofilosofica.v13.1074
RODRIGUES, J. 95 estatísticas de redes sociais para conhecer em 2024. 2024. Disponível em: https://www.rdstation.com/blog/marketing/estatisticas-redes-sociais/. Acesso em: 20 out. 2024.
ROBERTS, S. T. Behind the screen: Content moderation in the shadows of social media. New Haven; London: Yale University Press, 2019. DOI: https://doi.org/10.12987/9780300245318
RUSSELL, S. What is AI? Top computer scientist Stuart Russell explains in this video interview. 2022. Disponível em: https://www.weforum.org/stories/2022/06/what-is-ai-stuart-russell-expert-explains-video. Acesso em: 12 nov. 2024.
SALTY. Algorithmic Bias Report: September 2021. 2021. Disponível em: https://saltyworld.net/algorithmicbiasreport-2/. Acesso em: 24 out. 2024.
SUNSTEIN, C. R. #Republic: Divided democracy in the age of social media. Princeton: Princeton University Press, 2017. DOI: https://doi.org/10.1515/9781400884711
THOMPSON, J. The new visibility. Theory, Culture and Society, v. 22, n. 6, p. 31-51, 2005. DOI: https://doi.org/10.1177/0263276405059413
VAN DIJCK, J. The culture of connectivity. New York: Oxford University Press, 2013. DOI: https://doi.org/10.1093/acprof:oso/9780199970773.001.0001
VICENTE, P. N. Os algoritmos e nós. Lisboa: Fundação Francisco Manuel dos Santos, 2023.
VICENTE, P. N. Comunicação da, por, com inteligência artificial. Lisboa: Universidade Nova de Lisboa; Instituto de Comunicação da Nova, 2024.
WARREN, S.; BRANDEIS, L. D. The right to privacy. Harvard Law Review, v. 4, p. 193, 1890. DOI: https://doi.org/10.2307/1321160
WHITE, D. M. The “gatekeeper”: A case study in the selection of news. Journalism Quarterly, v. 27, n. 4, p. 383-390, 1950. DOI: https://doi.org/10.1177/107769905002700403
Downloads
Publicado
Edição
Seção
Licença
Copyright (c) 2025 Laís Sousa Di Lauro, Regina Baracuhy

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Autores que publicam nesta revista concordam com os seguintes termos:
Autores mantêm os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Attribution que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista.


