IA e a crise do que chamamos de “humano”
A A |
IA e a crise do que chamamos de “humano”Ebook recém-lançado debate tema pouco explorado: a soberania cognitiva. Em troca da otimização, o processo de pensamento estaria se empobrecendo? O critério de autenticidade pode desmoronar? Quais os efeitos concretos na sociedade? Leia um capítulo A humanidade começa quando nos separamos artificialmente da natureza a partir da criação de técnicas coletivas. Mas isso não se dá de maneira linear. Impulsionada pelos interesses de mercado, a velocidade das aplicações contemporâneas não condiz com o tempo necessário para processarmos suas mudanças. Desde a recente popularização das inteligências artificiais generativas (IAGen), a promessa de facilidade veio acompanhada de um ganho de escala, no qual as novas ferramentas passaram a funcionar como ambiente, organizando atenção, linguagem, imagem, trabalho e até a convivência. O e-book A crise do humano, lançado pelo grupo de Pesquisa Comunidata/CNPq, parte desse deslocamento para recentralizar uma questão social e política urgente: a proteção de nossa soberania cognitiva — isto é, a capacidade de perceber, interpretar, julgar e decidir. As plataformas digitais passaram a mediar nossa percepção, e estamos transferindo para os algoritmos a faculdade de projetar, logo aquilo que nos torna humanos. Com organização de Pollyana Ferrari, Livre-Docente em Comunicação e Educação pela PUC-SP, e participação de 22 pesquisadores do Brasil e do México especializados nas áreas de comunicação, tecnologia e educação, o livro se desdobra em torno de três perguntas principais: 1) O que acontece com a atenção e o tempo quando a vida é “otimizada” por plataformas? A economia do engajamento disputa minutos de disponibilidade mental. A IAGen, acelerando esse circuito, automatiza escolhas e sugere narrativas baseada no gosto médio, por probabilidade estatística. Em troca da otimização, o processo de pensamento se empobrece. Grandes ideias, catarses, momentos Eureka! não costumam surgir de atalhos… Diferentes autores do livro discutem a captura do tempo, trends e vigilância de dados, mostrando como a experiência cotidiana vai sendo ajustada ao relógio das plataformas e o impacto na autonomia humana. 2) O que sobra da “verdade” quando a realidade pode ser sintética e escalável? Deepfakes e conteúdo sintético reconfiguram a confiança pública. A mentira espetacularizada choca e se espalha mais rápido, ao passo que o próprio critério de autenticidade se torna instável. Nesse eixo entram as discussões sobre desinformação, guerra e plataformização de conflitos, além das mudanças no regime de imagem, refletindo sobre a transformação da fotografia e do audiovisual já que agora o registro pode ser gerado, não capturado como reflexo do real. 3) Quem paga a conta material e social dessa infraestrutura? A IAGen não paira abstrata na nuvem. Por isso, o livro se finca no chão para tratar de questões estruturais como trabalho, natureza, extrativismo e desigualdade social. A digitalização de setores como a agricultura, as assimetrias inscritas em dados e a historicidade da desumanização, especialmente nos corpos negros, conformam o mesmo sistema que promete inovação enquanto reorganiza poderes imperialistas. Os capítulos sobre religiosidade digital, cultura gamer e infância ampliam o quadro, pois a crise atravessa disputas simbólicas e direitos sociais. A crise do humano adota então a forma de uma crise da cidadania: somos ainda sujeitos de direito ou nos tornamos objetos de cálculo? (Jorge Alberto Hidalgo Toledo) A obra propõe um debate crítico que se esquiva do fetiche da tecnologia, seja para o bem ou para o mal, sem tratá-la como bala de prata ou trombeta do apocalipse. O futuro possível depende de escolhas coletivas sobre o presente e sobre presença, de forma consciente, sem atalhos. Baixe o e-book gratuito ou leia, a seguir, um dos textos que compõem a obra: O RELÓGIO DAS PLATAFORMAS: INTELIGÊNCIA ARTIFICIAL, CONTROLE E A CAPTURA DO TEMPO Por Juliano Maurício de Carvalho Vivemos um tempo em que a sensação de aceleração permanente deixou de ser metáfora para se tornar experiência cotidiana. Notícias, mensagens, recomendações algorítmicas e tarefas de trabalho se empilham na tela enquanto nos adaptamos, quase sem perceber, ao ritmo imposto pelas plataformas: responder rápido, produzir mais, deslocar-se entre abas e notificações como se o mundo inteiro coubesse no intervalo de alguns segundos. Nesse cenário, a inteligência artificial aparece simultaneamente como solução para “ganhar tempo” e como força que reconfigura o próprio modo como o tempo humano é vivido. É a partir desse paradoxo, ganhar tempo perdendo o tempo de si, que se organiza o argumento que desenvolvo ao longo deste capítulo. Para não cair no “catálogo infinito” de exemplos, eu prefiro começar com uma pergunta simples, quase didática: o que estamos fazendo com o nosso ritmo de vida e com a nossa capacidade de atenção? Não se trata de nostalgia pelo mundo analógico. É a partir dessa chave que organizo a reflexão a seguir: como pensar a inteligência artificial e o capitalismo de plataformas a partir de uma questão simples, mas insistente, que tempo sobra para o humano? Quando falo de IA aqui, não estou pensando numa moda passageira ou numa ferramenta opcional, que cada pessoa escolhe se adota ou não no seu cotidiano. Trata-se de uma camada de infraestrutura que atravessa dimensões técnicas, econômicas, culturais e políticas, operando por redes de dados, mercados e atenção que não respeitam fronteiras nacionais. Nessa arquitetura, normas públicas e regras privadas se combinam e, muitas vezes, se confundem. Não é, portanto, uma oposição simplista entre “tecnologia” e “sociedade”, uma tentativa de abraçar o ludismo. O que vemos é um conjunto de mediações transacionais que reorganizou a visibilidade, remuneração e acesso à palavra de maneira profundamente desigual entre regiões, classes e grupos sociais. Em termos diretos: quem aparece, quem ganha, quem fala e quem é silenciado nesse ecossistema de plataformas e inteligências artificiais? Como argumentam van Dijck et al., as grandes plataformas deixaram de atuar apenas como intermediárias para se tornarem infraestruturas centrais da vida conectada, nas quais disputas por conectividade e por valores públicos são travadas na própria arquitetura da rede (van Dijck et al., 2018). Para tornar essa discussão mais concreta, proponho três perguntas que servirão de fio condutor ao longo do capítulo. A primeira é: estamos dispostos a submeter a esfera pública a regras invisíveis definidas por plataformas? Em outras palavras, vamos aceitar que decisões sobre o que vemos, com quem falamos e sobre o que debatemos sejam tomadas por algoritmos que não conhecemos, alimentados por dados que não controlamos, comandadas por grupos de interesse minoritários? A segunda pergunta: o que acontece com a deliberação democrática quando critérios algorítmicos definem quem aparece, quem desaparece, que voz ganha amplificação e que voz é empurrada para um canto do feed? E a terceira: como proteger e expandir o trabalho digno, a cultura plurinacional e a diversidade quando o fluxo de atenção e de renda é mediado por sistemas privados que organizam o mundo segundo interesses comerciais, e não segundo um projeto público de sociedade? Um primeiro passo é olhar para a fotografia do momento, porque ela dá escala ao processo. Segundo o AI Index 2025, a adoção corporativa de IA passou de 55%, em 2023, para 78%, em 2024. No mesmo movimento, o investimento privado em IA nos Estados Unidos chegou a cerca de 109 bilhões de dólares em 2024, cerca de quatro vezes o volume somado de China e Europa, com aproximadamente 34 bilhões direcionados à IA generativa (Maslej et al., 2025). Mesmo com dezenas de iniciativas regulatórias em curso, a corrida segue concentrada em poucos centros de infraestrutura, capital e modelos. Os governos não estão parados. Hoje, já se contam dezenas de iniciativas regulatórias relacionadas à IA em diferentes países. Há aportes importantes no Canadá, na França e na Índia, processos em curso em blocos como União Europeia e Mercosul. Mas, mesmo com esse avanço, duas economias, Estados Unidos e China, formam oligopólios no que diz respeito ao investimento mundial em IA concentrando ambos mais da metade dos aportes. Se não partirmos desse dado estrutural, corremos o risco de discutir IA apenas como fenômeno cultural ou midiático, sem encarar os interesses econômicos que organizam o jogo. A pergunta necessária é: regulação para quê, para quem e com quais capacidades de implementação, especialmente quando o gargalo é auditoria, transparência e fiscalização? Há no Brasil um conhecimento popular bastante eloquente: “quando a esmola é demais, o santo desconfia”. Em economês: não existe almoço grátis. Quando pensamos em inteligência artificial, devemos entender que a situação é ainda mais crítica. Ferramentas tais quais ChatGPT, Gemini, Perplexity e outras que você talvez já tenha usado para resumir textos, revisar um parágrafo ou testar uma ideia não entram no nosso cotidiano por pura generosidade. São soluções que compõem parte de um ecossistema de produção e captura de informação voltado a conhecer, prever e orientar o comportamento de pessoas e instituições numa escala sem precedentes. Um episódio recente no Brasil ajuda a tornar isso mais concreto. Em 2025, uma reportagem de Sérgio de Sousa, no Intercept Brasil, narrou oficinas de inteligência artificial oferecidas por executivos do Google e da Meta no seminário de comunicação do Partido Liberal, principal legenda do bolsonarismo. Nesses encontros, ferramentas de IA generativa eram apresentadas como armas para “impressionar seguidores”, automatizar mensagens e segmentar públicos no WhatsApp e em outras plataformas, sempre com a promessa explícita de aumentar as chances de vitória eleitoral do grupo treinado. Ninguém investe tempo e recursos em um “treinamento de guerra” desse tipo por ser amigo da democracia. O episódio ilustra o ponto: o nosso direito de decidir coletivamente o rumo da sociedade está cada vez mais atravessado por sistemas que trabalham com dados sobre nós, e não com nós (de Sousa, 2025). O ponto não é o episódio em si; é perceber quando a mediação vira método de disputa, e não simples canal de comunicação. No que se convencionou chamar de capitalismo de vigilância, vivemos num regime em que experiências humanas são continuamente convertidas em excedentes comportamentais, extraídos e processados para prever e modular condutas, instaurando a sensação de que estamos permanentemente acompanhados por sistemas que observam, registram e calculam (Zuboff, 2021). Não se trata apenas de “usar” dados para melhorar serviços, mas de desenhar arquiteturas de captura capazes de tornar previsíveis, e, quando possível, moldáveis, nossas atitudes políticas, econômicas e afetivas. Na prática, isso significa que os mesmos sistemas que organizam buscas, recomendações de vídeos, rotas de transporte ou ofertas comerciais também influenciam a forma como percebemos conflitos, injustiças e promessas de futuro. A fronteira entre “serviço personalizado” e “governança algorítmica” torna-se difusa, e a experiência cotidiana de navegação se converte em matéria-prima para decisões de grande escala, muitas vezes tomadas em esferas que escapam ao olhar público. Em plataformas, jurisdição e responsabilidade carecem de nitidez, e o que chamávamos de público passa a ser governado por incentivos que não elegemos. A figura dos “engenheiros do caos” ajuda a entender o uso político dessa infraestrutura: estrategistas e consultores que transformam mal-estar latente e cólera social em energia eleitoral, por meio de microdirecionamento emocional, automação de mensagens e alimentação constante de conteúdos quentes, que maximizam engajamento mesmo à custa da veracidade. Nessa propaganda algorítmica, a verdade factual de cada afirmação importa menos do que a coerência afetiva da mensagem como conjunto, o que a torna especialmente eficaz para reconfigurar o próprio jogo democrático (Da Empoli, 2019). Isso não é futurologia. Não é McLuhan anunciando um amanhã distante. Educadores que estão em sala de aula sabem que a IA já atravessa o cotidiano escolar, por exemplo. Não se trata mais de perguntar se a IA vai impactar a educação, e sim de reconhecer que ela já alterou, de fato, os modos de pesquisar, escrever, avaliar e aprender. Ao mesmo tempo, quando olhamos para a conectividade global, o quadro é paradoxal. Estimativas recentes de organismos como a União Internacional de Telecomunicações e a Organização Internacional do Trabalho indicam que, em um mundo com mais de 8 bilhões de pessoas, algo como 6 bilhões estão online e cerca de 2,2 bilhões permanecem offline (International Telecommunication Union, 2025). Na prática, falamos de aproximadamente um terço da humanidade ainda está à margem das redes digitais, mesmo depois de um aumento expressivo de usuários nos últimos anos. Enquanto isso, no debate público e na universidade, tornou-se comum discutirmos sobre inteligência artificial a partir de um contexto de plena universalidade de serviços de conexão, alfabetizados digitalmente, com banda larga de qualidade em casa e dispositivos atualizados. É como se falássemos de religião apenas para quem já é da igreja: pregamos para os “evangelizados”, e esquecemos os que estão do lado de fora da porta. A assimetria aqui não é detalhe, é o próprio sistema: infraestrutura, capital e dados não circulam como promessa universal. Na América Latina, estudos indicam ampla exposição e reorganização do trabalho (26% a 38%, a depender do país) e sugerem que os ganhos potenciais de produtividade associados à IA generativa são condicionados pela infraestrutura digital; a pergunta, aqui, é sempre a mesma: produtividade para quem, com qual proteção social e com quais efeitos sobre mulheres e jovens (Gmyrek et al., 2024). Diante desses riscos, surgem respostas normativas importantes. A UNESCO, por sua vez, publicou recomendações éticas para o uso da IA e vem atualizando esse marco, com diretrizes sobre uso responsável, transparência, proteção de dados, avaliação de impacto, rotulagem de conteúdo automatizado (Unesco, 2022). Esses documentos são importantes como referência, mas não resolvem sozinhos a questão central: o que vamos fazer, concretamente, para que a IA não aprofunde ainda mais as desigualdades e não corroa a possibilidade de vida digna e participação pública? Um caminho para responder a estas inquietudes passa por reconhecer uma mudança profunda na forma como estamos sendo educados para lidar com o conhecimento. Durante muito tempo, a escola trabalhou com um modelo conteudista, baseado na acumulação de informações e na verificação de memorização. A IA tensiona esse modelo num ponto sensível: se um sistema automatizado pode produzir um resumo, uma resposta “correta” ou um texto formalmente aceitável, o que passa a fazer diferença é menos a quantidade de informação armazenada na memória e mais a nossa capacidade de formular perguntas, interpretar contextos, e duvidar de respostas prontas. É justamente nesse deslocamento, do acúmulo de informação para a conversão em prompt, que se evidencia uma demanda nova na formação: menos acumular respostas e mais saber situar um problema, formular uma pergunta, definir um recorte e explicitar uma intenção. Não se trata de ausência de conhecimento, mas de reconhecer que, diante da mediação técnica, o sistema passa a organizar, hierarquizar e sugerir caminhos; ao sujeito cabe dar direção ao processo, com contexto e critério, para não confundir acabamento retórico com compreensão. Nesse cenário, a assertividade do comando, medido pela capacidade de perguntar bem, conectar pistas, testar hipóteses e interpretar saídas, confere ao usuário um certo poder de tutela sobre a máquina e seus vieses. Quanto melhor a pergunta, maior a chance de orientar o sistema, reduzir ruído, explicitar pressupostos e evitar que respostas plausíveis, porém frágeis, se imponham como verdade apenas pelo seu acabamento retórico. Mas essa tutela é instável e tem um limite estrutural. Sem contexto, não sabemos o que perguntar e, sem sabê-lo, o processo de investigação se interrompe antes de começar. Sem pergunta, não há interpretação, apenas consumo de enunciados. E, sem interpretação, ficamos à mercê do que o sistema foi desenhado para oferecer: conteúdos úteis, mas que carregam omissões, prioridades invisíveis e uma lógica de entrega que não coincide necessariamente com a lógica do problema. É aqui que aparece a tensão central desse novo regime de aprendizagem. O prompt pode funcionar como instrumento de agência e criticidade, mas também expõe uma dependência: para pensar com a máquina, é preciso estar minimamente situado no problema, com repertório e critérios para recortar, testar e desconfiar. Caso contrário, a inteligência aparente do sistema não amplia a compreensão; ela encurta o percurso cognitivo e o substitui por uma resposta pronta, elegante e potencialmente desancorada. Alerto para o tratamento superficial de como o campo educacional, com frequência, tem tratado dessa mudança epistêmica. Multiplicam-se oficinas, minicursos e tutoriais sobre “como usar IA na sala de aula”, “como fazer prompts melhores”, enquanto muito pouco se discute sobre o que significa, de fato, reorganizar uma disciplina, um currículo, uma prática docente a partir desse novo cenário. Imagine um professor ou uma professora com vinte ou trinta anos de carreira, que há uma década ministra a mesma disciplina. De repente, alguém diz: “a partir de agora, você precisa mudar completamente a forma de planejar, avaliar e interagir com os alunos, porque existe IA”. Em muitos casos, falta suporte consistente para essa reinvenção: tempo, formação continuada, condições de trabalho, espaços de troca. O resultado costuma ser um misto de medo, cansaço e improviso. Há, porém, um obstáculo que não pode ser ignorado: as condições materiais que tornam essa virada possível. Em muitos contextos, sobretudo na educação básica e em regiões mais pobres, falta rede estável, equipamentos adequados e suporte técnico de apoio. A exclusão vira dupla: não apenas pelo acesso precário, mas porque, sem esse chão, também se enfraquecem as condições simbólicas e pedagógicas para lidar com a tecnologia de modo crítico. Por isso, diante da IA, a educação precisa ocupar um outro lugar: não apenas ensinar a usar ferramentas, mas compreender como elas operam. Olhar para telas e aplicativos é insuficiente; é preciso observar modelos de negócio, fluxos de dados e escolhas de design que organizam o que circula e o que se aprende. É aqui que os dilemas educacionais encontram a dimensão estratégica mais importante deste debate: soberania de dados. Se dados e infraestruturas ficam fora do controle público, também ficam fora do alcance público as condições de transparência, autonomia e responsabilidade que deveriam orientar a formação. Em escala global, essa disputa ocorre em um ambiente concentrado em poucos centros de capital e infraestrutura, com respostas distintas, enquanto países periféricos, como o Brasil, correm o risco de permanecer como consumidores de tecnologias e nós subordinados da economia de dados se não construírem capacidades próprias e cooperação regional (Bolaño et al., 2025). Se continuarmos tratando plataformas e algoritmos como “caixas pretas”, sem transparência e sem supervisão independente, os impactos da IA não ficarão restritos à disputa eleitoral: eles atravessam o trabalho, a cultura, a educação, o acesso a serviços públicos e o reconhecimento de identidades. Por isso, soberania digital também é capacidade pública de auditoria: produzir métricas e indicadores que não dependam exclusivamente das próprias empresas, com observatórios universitários, laboratórios independentes, redes de pesquisa e sociedade civil ajudando a iluminar o que acontece “por trás” e a desfazer a ilusão de que a computação “cuida do código” enquanto a comunicação “cuida dos conteúdos”. No fim, a forma como dados são coletados, processados, classificados e monetizados define, cada vez mais, o que vemos na superfície. Para não ficar em um diagnóstico paralisante, eu condensaria uma agenda mínima em três verbos, quase como um protocolo pedagógico para a sociedade: definir, explicar e cuidar. Definir significa estabelecer, de forma transparente, o que é aceitável no espaço público mediado por inteligências artificiais. Que práticas consideramos toleráveis? O que identificamos como abuso, manipulação, violação de direitos? Isso vale para publicidade política, mas também para decisões automatizadas em crédito, saúde, educação, segurança pública. Explicar é o compromisso de tornar inteligíveis as decisões automatizadas, em linguagem que as pessoas compreendam. Não basta publicar relatórios técnicos ou “termos de uso” indecifráveis. É preciso criar formas de explicabilidade que devolvam às pessoas a possibilidade de compreender e contestar decisões que as afetam. Cuidar é talvez o verbo mais esquecido no debate tecnológico. Cuidar dos trabalhadores que terão suas funções transformadas ou eliminadas; cuidar das comunidades cujos acervos culturais são utilizados para treinar modelos sem reconhecimento ou compensação; cuidar das vítimas de violência que têm suas imagens, vozes e histórias manipuladas por sistemas de geração de conteúdo. Cuidar, aqui, é uma categoria ética e política, não um gesto paternalista. É nesse horizonte que o tema da desaceleração ganha força. Quando falamos em desacelerar, estamos falando do direito ao tempo: tempo para revisar, para escutar, para fazer silêncio, para perceber. Num ecossistema em que plataformas operam à máxima velocidade, empilhando estímulos, notificações e respostas imediatas, a escolha humana de ir mais devagar pode ser uma forma de resistência. Lentidão, nesse contexto, não é preguiça. É técnica de precisão. Nesse sentido, a discussão se aproxima da intuição de Domenico De Masi sobre o “ócio criativo”: em sociedades em que o tempo de trabalho tende a diminuir e o tempo livre cresce, a qualidade desse tempo passa a ser tão decisiva quanto a quantidade de horas dedicadas ao emprego. Ócio criativo, para ele, é justamente a coincidência entre trabalho, estudo e jogo, em que o tempo liberado deixa de ser visto como culpa ou desperdício e se converte em condição para produzir ideias, convivência e bem-estar (De Masi, 2000). Essa chave da desaceleração encontra ressonância em reflexões recentes sobre comunicação e tempo, como as que Pollyana Ferrari reúne em Desacelerar: resistência e combate à desinformação na era das inteligências artificiais. Ao articular desinformação, economia da atenção e saúde mental a processos de colonialidade de dados, a autora sugere a desaceleração como gesto politizado e cotidiano, menos um luxo individual, mais uma prática de resistência que devolve tempo à leitura, à verificação e ao cuidado com a linguagem (Ferrari, 2025). Em diálogo com essas ideias, a proposta aqui é tratar a desaceleração não como fuga nostálgica do mundo digital, mas como prática ativa de reorganização do olhar, da escrita e da convivência. Parar, nesse contexto, não significa retirar-se definitivamente das redes ou recusar qualquer mediação técnica. Significa instaurar momentos em que suspendemos o automatismo do deslizar, do curtir, do responder em segundos, para recuperar perguntas básicas: por que estou vendo isto agora? Quem ganha quando eu clico aqui? Que outras vozes ficaram de fora desta tela? Refletir é o segundo movimento desse gesto. É tomar distância suficiente para reconhecer que as inteligências artificiais não são oráculos neutros, mas artefatos inscritos em histórias de exploração, desigualdade e também de criatividade e disputa. Quando estudantes, jornalistas, professores e criadores se autorizam a fazer essa pausa, mesmo que por poucos minutos no meio da avalanche de notificações abrem espaço para escolhas mais conscientes sobre o que produzir, compartilhar, recusar. O que sustento, então, é que a desaceleração precisa virar método, uma ética prática do tempo em ambientes mediados por plataformas. Isso aparece em microdecisões de rotina: esperar antes de reagir; ouvir antes de comentar; checar antes de compartilhar; revisar antes de publicar; resistir ao clique imediato. Essas escolhas não derrubam, sozinhas, o capitalismo de plataformas, mas devolvem ao humano uma parte do tempo que os sistemas automatizados procuram capturar. Para enfrentar máquinas que calculam em frações de segundo, precisamos de tempo humano para processar, duvidar, dizer não. E isso toca diretamente a crise do humano: o risco de entregarmos o nosso tempo existencial, o tempo de viver, sentir, elaborar, a uma lógica que transforma toda atenção em clique, toda emoção em dado, toda relação em métrica. Nessa pedagogia do tempo, há afinidade com a defesa que de Masi faz de educar não apenas para o trabalho, mas também para o ócio, entendendo o tempo livre como espaço de aprendizagem, criação e participação, e não como falha moral ou vazio improdutivo (de Masi, 2000). Em muitos lugares, já vemos sinais de reação. Jovens começam a se afastar de algumas redes sociais, a reduzir o tempo de tela, a buscar formas de sociabilidade que recuperem o encontro presencial, o olhar, o riso, o silêncio compartilhado. Há uma intuição forte por trás desses gestos: algo essencial na experiência humana não cabe nos modelos de dados. Em situações-limite, porém, percebemos com nitidez o que se perde quando reduzimos a vida a métrica. Há dores, vínculos, silêncios e conflitos que resistem à conversão em dado e lembram que, por trás das interfaces, permanece um resto de realidade que não se deixa domesticar por modelos estatísticos. Essa fricção entre o que vivemos e o que as plataformas conseguem representar prepara o terreno para uma imagem clássica do “deserto do real”. Aqui vale lembrar uma imagem trabalhada por Slavoj Žižek ao comentar o 11 de setembro: para um público treinado por décadas de cinema de catástrofe, o ataque às Torres Gêmeas pareceu ao mesmo tempo absolutamente real e estranhamente familiar, como se o “deserto do real” tivesse irrompido por trás da tela; ao retomar a ideia lacaniana de que “uma carta sempre chega ao seu destino”, ele sugere que o Real se manifesta nessas fissuras entre a cena visível e aquilo que insiste para além das imagens (Žižek, 2015). No contexto da inteligência artificial, também corremos o risco de transformar o impacto dessas tecnologias em mais um espetáculo, feito de promessas, medos e efeitos especiais, e de perder de vista o conflito concreto, o sofrimento e o antagonismo que seguem estruturando a vida social para além das interfaces. É nesse resto irredutível, nesse ponto em que a vida recusa virar apenas dado, que reside uma parte importante da resposta à crise do humano. Desacelerar, portanto, não é recusar a inteligência artificial. É recusar que ela dite sozinha o ritmo do nosso tempo, das nossas causas e esperanças. As plataformas podem continuar correndo; nós não precisamos autorizar que elas apaguem a nossa capacidade de decidir, em comum, o que queremos fazer com o tempo que nos cabe viver. Box musical Resposta Ao Tempo (Nana Caymmi) Oração Ao Tempo – Ao Vivo (Caetano Veloso) Sobre o tempo (Pato Fu) Time (Pink Floyd) No Surprises – Remastered (Radiohead) Admirável Chip Novo (Pitty) | A A |
| OUTRAS PALAVRAS |
Portal Membro desde 13/12/2024 Segmento: Notícias Premiações: |

Comentários
Postar um comentário