Algoritmos podem mudar o curso da vida das crianças. Elas interagem com Alexas que podem gravar seus dados de voz e influenciar sua fala e desenvolvimento social. E, além disso, assistem sem parar a vídeos no TikTok e no YouTube empurrados a elas por sistemas de recomendação que acabam moldando suas visões de mundo.
Os algoritmos também são cada vez mais usados para determinar como é sua educação, se elas receberão assistência médica e até mesmo se seus pais são considerados aptos para cuidar delas. Às vezes, isso pode ter efeitos devastadores: no verão passado, por exemplo, milhares de estudantes perderam suas admissões na universidade depois que algoritmos – usados no lugar de testes padronizados cancelados por conta da pandemia – previram de forma imprecisa seus desempenhos acadêmicos.
Em outras palavras, as crianças costumam estar na vanguarda quando se trata de usarem e serem usadas pela IA, e isso pode deixá-las em uma posição vulnerável. “Por estarem se desenvolvendo intelectual, emocional e fisicamente, elas são muito moldáveis”, diz Steve Vosloo, especialista em políticas de conectividade digital da Unicef, o Fundo das Nações Unidas para a Infância.
Vosloo liderou a elaboração de um novo conjunto de diretrizes do Unicef destinadas a ajudar governos e empresas a desenvolver políticas de IA que levem em consideração as necessidades infantis. Lançadas em 16 de setembro, as nove novas diretrizes são o resultado de várias consultas realizadas com legisladores, pesquisadores de desenvolvimento infantil, profissionais de IA e jovens em todo o mundo. Elas também levam em consideração a Convenção internacional sobre os Direitos da Criança, um tratado de direitos humanos ratificado em 1989.
As diretrizes não pretendem ser mais um conjunto de princípios de IA, muitos dos quais já dizem as mesmas coisas. Em janeiro deste ano, uma avaliação do Harvard Berkman Klein Center encontrou oito temas comuns nos 36 dos documentos mais proeminentes que orientam as estratégias de IA nacional e corporativa – entre eles privacidade, segurança, justiça e compreensibilidade.
Em vez disso, as diretrizes do Unicef pretendem complementar esses temas existentes e adaptá-los às crianças. Por exemplo, os sistemas de IA não devem ser apenas compreensíveis – eles devem ser entendidos também por elas. Além disso, eles devem considerar as necessidades únicas de desenvolvimento infantil. “As crianças têm direitos adicionais sobre os adultos”, diz Vosloo. Também se estima que representem pelo menos um terço dos usuários online. “Não estamos falando de um grupo minoritário aqui”, ressalta.
Além de mitigar os danos da IA, o objetivo dos princípios é incentivar o desenvolvimento desses sistemas para que possam melhorar o crescimento e o bem-estar dos jovens. Se bem projetadas, por exemplo, as ferramentas de aprendizagem baseadas em IA demonstraram melhorar o pensamento crítico e as habilidades de resolução de problemas das crianças e podem ser úteis para aquelas com dificuldades de aprendizagem. Assistentes de IA emocional, embora relativamente incipientes, poderiam fornecer suporte de saúde mental e demonstraram melhorar as habilidades sociais de crianças autistas. O reconhecimento facial, usado com limitações cuidadosas, pode ajudar a identificar crianças que foram sequestradas ou traficadas.
As crianças também devem ser educadas sobre IA e incentivadas a participar de seu desenvolvimento. Não se trata apenas de protegê-las, diz Vosloo. Trata-se de capacitá-las e dar-lhes o poder para moldar seu futuro.
“Falando sobre grupos desfavorecidos, é claro que as crianças são as mais indefesas”.
Yi Zeng
A Unicef não é a única a pensar no assunto. Um dia antes do lançamento dessas diretrizes, a Academia de Inteligência Artificial de Pequim (em inglês, BAAI), uma organização apoiada pelo Ministério da Ciência e Tecnologia da China e pelo governo municipal de Pequim, divulgou um conjunto de princípios de IA também para crianças.
O anúncio ocorre um ano após a BAAI lançar os princípios de IA de Pequim, entendidos como os valores orientadores para o desenvolvimento nacional de IA da China. Os novos princípios delineados especificamente para crianças pretendem ser “uma implementação concreta” dos mais gerais, diz Yi Zeng, o diretor do Centro de Pesquisa de Ética e Desenvolvimento Sustentável de IA do BAAI que conduziu sua elaboração. Eles se alinham intimamente com as diretrizes do Unicef, também se relacionando a temas como privacidade, justiça, compreensibilidade e bem-estar infantil, embora alguns dos detalhes sejam mais ligados às preocupações específicas da China. Uma diretriz para melhorar a saúde física das crianças, por exemplo, inclui o uso de IA para ajudar a combater a poluição ambiental.
Embora os dois esforços não estejam formalmente relacionados, o momento também não é coincidência. Após uma enxurrada de princípios de IA nos últimos anos, os dois redatores principais dizem que criar diretrizes mais personalizadas para crianças foi o próximo passo lógico. “Falando sobre grupos desfavorecidos, é claro que as crianças são as mais indefesas”, diz Zeng. “É por isso que realmente precisamos [dar] atenção especial a este grupo de pessoas”. As equipes conferenciaram umas com as outras enquanto redigiam seus respectivos documentos. Quando o Unicef realizou um workshop de consultoria no Leste Asiático, Zeng participou como palestrante.
A Unicef agora planeja executar uma série de programas piloto com vários países parceiros para observar como suas diretrizes são práticas e eficazes em diferentes contextos. A BAAI formou um grupo de trabalho com representantes de algumas das maiores empresas que impulsionam a estratégia nacional de IA do país, incluindo a organização de tecnologia educacional TAL, a companhia de eletrônicos de consumo Xiaomi, a empresa de visão artificial Megvii e a gigante da Internet Baidu. A esperança é fazer com que elas comecem a seguir os princípios de seus produtos e influenciem outras empresas e organizações a fazer o mesmo.
Tanto Vosloo quanto Zeng esperam que, ao articular as preocupações únicas que a IA representa para as crianças, as diretrizes aumentem a conscientização sobre essas questões. “Entramos nisso com os olhos bem abertos”, diz Vosloo. “Entendemos que este é um território novo para muitos governos e empresas. Portanto, se, ao longo do tempo, virmos mais exemplos de crianças sendo incluídas na IA ou no ciclo de desenvolvimento de políticas, maior atenção a forma como seus dados são coletados e analisados, se virmos que a IA se tornou mais compreensível para elas ou seus responsáveis – isso seria uma vitória para nós”.