PESQUISAR
Um fato: interagimos cada vez mais com linguagens digitais, principalmente as providas de inteligência artificial (IA). Quais as consequências dessa interação em crianças e jovens, principalmente quando deveriam buscar ou esperar delas segurança, conforto, consolo, orientação ou companhia?
O uso de IA é uma tendência mundial, otimizando e amplificando possibilidades de interação, produção e obtenção de dados, mas é importante destacar que não substitui as relações humanas. Queremos usá-la e nos “beneficiar” com ela.
Crianças e adolescentes observam e criticam o comportamento dos adultos, referências para elas, mas tendem a imitá-los quanto ao uso positivo ou negativo. Preocupamo-nos, com razão, sobre o uso excessivo ou o mau uso de mídias sociais por crianças e adolescentes, mas comentamos, comparativamente muito pouco, sobre o uso que adultos fazem dessas plataformas. Assim, importa saber o tipo de uso que estes, referências para elas, fazem.
Engenheiros, matemáticos, linguistas e outros profissionais da comunicação e processamento de dados produzem formas de inteligência artificial que procuram imitar e satisfazer interesses humanos. Assim, modos de agir e pensar, que eram privilégio de nossa inteligência biológica, são, agora, também proporcionáveis por criações produzidas por esses profissionais e empresas que os contratam, divulgam e comercializam esses produtos. Crianças, adolescentes e pessoas de qualquer idade podem consumir e serem vulneráveis aos maus usos ou aos usos “perigosos” destes objetos.
Uma das possibilidades de mau uso ou uso perigoso da inteligência artificial é o recurso a ferramentas como o ChatGPT, Character.AI e Replika, dentre outros, para “trocar ideias”. Essas plataformas favorecem a “conversa íntima” com uma pessoa. Nela, pode comunicar problemas, pedir “conselhos”, criar vínculos emocionais. Tais recursos são uma nova forma de autoajuda, típica do Século XXI, com todas as suas vantagens e desvantagens.
Os mais vulneráveis podem ser os mais prejudicados: o uso excessivo e desorientado de plataformas digitais pode trazer consequências negativas ao desenvolvimento psicológico de crianças e adolescentes.
A troca de conversas é uma atividade sociocultural. Conversamos com outras pessoas. Conversamos conosco mesmo. Agora podemos “conversar” também com a inteligência artificial, pedir-lhe conselhos, relatar dúvidas e sofrimentos. A “conversa” aqui difere da conversa com outra pessoa. A outra pessoa pode não entender, discordar, criticar, oferecer propostas alternativas, ir embora, ofender, ofender-se. A gestão do diálogo social, mesmo quando difícil, é enriquecedora para o desenvolvimento de nossas habilidades. O mesmo não acontece quando se conversa com uma plataforma IA. Ela é programada para “compreender”, “ajudar”, “dar bons conselhos”. Ela não fica brava. É paciente e positiva. Uma resultante pode ser a atrofia das habilidades sociais, não saber lidar com conflitos ou gerir mal conflitos de ideias, sentimentos ou de propósitos.
Consideremos, por exemplo, a situação do jovem recuperando-se de um câncer, tendo que lidar com consequências físicas e sociais decorrentes do tratamento de sua doença. Poder se comunicar com uma plataforma IA pode ser tentador, evitando ou diminuindo, assim, o contato social com outros jovens. A IA vai concordar, validar, propor expectativas que, talvez, a pessoa não encontrará com seus pares, ou pais. Esses programas de IA são feitos para concordar, evitar incertezas, dar respostas ou sugerir possibilidades nem sempre fáceis e imediatas na realidade. Daí os riscos dos acessos. A criação de dependência emocional, preferindo ficar na companhia da IA ao invés de enfrentar os embates das relações humanas. Como consequência, pode se isolar mais e mais. Ficar sujeito a certas formas de manipulação e prejudicar seu processo de desenvolvimento.
O uso de plataformas digitais requer um pensamento crítico, uma capacidade de “desconfiar” do que está sendo falado, escrito ou mostrado por elas. Falar, ler (no sentido de interpretar sinais) e escutar são práticas orais, aprendidas no contexto de experiências vividas desde quando nascemos. Tais práticas acontecem nos primeiros anos, na relação com pessoas, objetos e acontecimentos “concretos” a posteriori. São atitudes evidenciáveis pelos órgãos do sentido e da motricidade.
Um desafio nas interações com a IA é que “fato” e “representação” são “equivalentes”.
É o nosso espírito crítico que possibilita diferenciar, conferir, comparar um com o outro. O problema é que a crítica, a capacidade de separar o “certo” do “errado”; o “pode ser”, mas “não me convém”; e os limites entre o, sim, o não e o talvez só se desenvolvam ao longo do processo de desenvolvimento. É uma capacidade muito sofisticada da inteligência humana. Crianças, jovens e mesmo adultos ou idosos têm dificuldades de a praticar, sobretudo, em contextos – como os da IA – feitos para encantar, chamar a atenção, seduzir ou ser consumido.
Numa reflexão sobre as consequências da IA como “companhia”, é importante considerar o valor da experiência aos processos de aprendizagem e desenvolvimento. De modo geral, todos concordamos que se trata de uma condição para assimilar o conhecimento. É preciso experimentar. Crianças e jovens são curiosos, sedentos para verificar o gosto sobretudo daquilo que observam suas referências fazendo.
O problema é que há certas experiências “proibidas”. Consumir o crack, por exemplo, é uma experiência que não vale a pena ter. Matar ou roubar uma pessoa é condenável, crime. Nestes casos, aprendemos pelos livros, conselhos e pela lei os efeitos negativos observados em pessoas com tais experiências. Aprendemos, assim, indiretamente. Essa situação será a mesma para o uso de plataformas IA? Crianças e jovens observam seus pais, professores e outros adultos a usarem cada vez mais os celulares para todo o tipo de prática social – trabalho, lazer, música, conversa, fotografia, cinema…
Nossa sociedade está sendo administrada cada vez mais digitalmente pelo Estado, pelas empresas e pelos negócios. Saúde e educação recorrem mais e mais à IA. Daí a dificuldade que crianças e jovens sentem em seguir os conselhos de seus pais ou as regras para o não uso ou para um uso restringido desta novidade. Em outras palavras: como e por que evitar a linguagem digital se os adultos a utilizam cada vez mais?
Faço essas reflexões para tentar entender a forma ambígua e contraditória pelas quais tentamos “proibir” ou “regular” o uso das plataformas por crianças e jovens. É certo que o pensamento crítico de crianças e jovens pode ficar amortecido, se ficam dependentes de um recurso que “sabe” dar respostas prontas; é “paciente” e “compreensivo”; dá “conselhos” e “orienta” e está sempre disponível para elas.
Outra questão interessante para refletir é sobre a relação entre o privado e o público. Nas plataformas de IA esta relação está comprometida. Crianças e jovens nem sempre sabem proteger sua intimidade e se expõem a riscos perigosos à saúde física e mental. Podem receber “conselhos” ou “orientações” prejudiciais, de forma direta ou induzida. Sabemos de casos de homicídios, autolesões, manipulação emocional e insurgência contra os pais ou instituições acontecidas no contexto de tais relações. Além disso, a IA coleta, sem que tenhamos muito controle, dados íntimos sobre nossa vida, interesses ou intenções. Dados compartilhados são irreversíveis, porque a informação deles obtida passa a ser propriedade da empresa de IA. Há, por isso, possibilidade de exploração comercial e outras formas de abuso. Crianças e jovens tornam-se igualmente vulneráveis.
Uma característica do Século XXI é que na mesma medida em que aumentaram os recursos de comunicação, também ocorreram as possibilidades de isolamento social. Praticar atividades online ou home-office são exemplos desta característica. A IA pode apoiar momentos de solidão que crianças e jovens sofrem, por exemplo, quando estão doentes. Se são tímidos ou sofrem ansiedade social podem se “proteger” ou “esconder” via recursos da IA. Podem também explorar ou experimentar possibilidades que não têm coragem de realizar publicamente. Mais que isso, a IA hoje é uma imensa biblioteca que disponibiliza dados e informações sobre qualquer conteúdo. Saber e poder usar e saber se proteger são vantagens. O oposto pode ser muito perigoso. Daí a importância de os adultos exercerem uma supervisão cuidadosa de seu uso.
É importante que estejamos atentos ao uso de IA por crianças pequenas. Elas ainda não têm recursos cognitivos para diferenciar e integrar a realidade com suas representações. Afetivamente são mais sensíveis e influenciáveis. Têm pouco poder de crítica. São vulneráveis à sedução de programas e plataformas. O mesmo pode acontecer com os jovens. Eles buscam identidades, gostam de explorar e experimentar novidades. São influenciáveis e buscam companhia. Ao mesmo tempo, são vulneráveis e ainda não têm respostas definidas para suas escolhas e projetos de vida. A IA “sabe” dar respostas. E os jovens sabem fazer boas perguntas. Com os adolescentes (com idade de 14 a 18 anos), essa relação se torna ainda mais complexa. Eles se encontram na passagem do proibido ou restringido para o permitido ou autocontrolável. Daí serem facilmente expostos a várias formas de exploração e se tornarem emocionalmente dependentes da IA.
Convém não esquecer que a geração Alpha (nascidos a partir de 2010) é uma geração imersa na cultura digital. Uma geração, por enquanto, aparentemente, desprotegida.
Leia também: