Oferecido por
Neste episódio do podcast da MIT Technology Review Brasil, Carlos Aros e Rafael Coimbra conversam sobre o mundo da robótica impulsionada pela IA.
Eles falam sobre os avanços recentes que estão elevando os robôs a um novo patamar de sofisticação, superando até mesmo as projeções da ficção científica mais ousadas.
Além disso, os editores analisaram como a Inteligência Artificial está transformando não apenas o software, mas também o hardware dos robôs. Desde o treinamento inteligente até a melhoria da habilidade manual, estamos testemunhando uma revolução na forma como os robôs interagem com o mundo ao seu redor.
Este podcast é oferecido pelo SAS.
Transcrição:
[TRILHA SONORA]
[CARLOS AROS]
Olá, eu sou Carlos Aros e este é mais um episódio do podcast da MIT Technology Review Brasil. Eu e o Rafael Coimbra, hoje, vamos falar sobre os robôs e como a Inteligência Artificial está amplificando as potencialidades, tornando os robôs melhores, mais bem desenvolvidos do que até mesmo alguns episódios de séries de ficção científica eram capazes de prever, né, Rafa? E esse podcast, você sabe, é um oferecimento do SAS.
Rafael Coimbra, eu fico pensando o seguinte: que talvez, em função dos avanços recentes que a gente tem observado, as séries de ficção precisem se reinventar ou precisarão se reinventar num futuro muito próximo, porque muita coisa já ficou para trás. E tem um eixo a partir do qual o mundo vem se desenvolvendo nos últimos anos, chamado OpenAI, e mesmo quando indiretamente ela atua, e é o caso desse tema aqui que a gente está discutindo hoje, ela acaba produzindo transformações interessantes. E eu digo indiretamente por que o modelo que está dando novas perspectivas para a robótica nasceu do desligamento de alguns pesquisadores, de alguns cientistas da OpenAI, que criaram uma startup, uma empresa a partir desse novo momento. Eles têm aí uma ideia, acho que a gente pode dizer assim, do que será a robótica a partir de então.
A gente já discutiu aqui recentemente a ideia dos robôs humanoides. A gente já falou sobre como a Inteligência Artificial vem alterando essa dinâmica em relação à experiência, em relação à capacidade de raciocínio. A gente viu recentemente alguns vídeos bem interessantes sendo divulgados, mostrando aí o que algumas dessas empresas estão fazendo. Mas acho que o grande ponto tá também na questão física, na habilidade manual dessas máquinas, que vem sendo ampliada, e o processamento, a capacidade de entender o quanto de pressão aplicar, qual o nível de sensibilidade, é um aspecto dos mais complexos e bem resolvido, talvez, com os exemplos que a gente tem identificado. E quem tá promovendo essa transformação é a Inteligência Artificial. Esse era o próximo passo ou a gente ainda tá numa fase incipiente e tem muito mais por vir?
[RAFAEL COIMBRA]
Aros, as duas coisas. Quando a gente observa esses novos robôs, esses que você citou, por exemplo, como dessa startup, o nome da empresa é Covariant, e eles lançaram agora um robozinho chamado RFN1. Quem acompanhar aí o setor de robôs vai ver que tem muita gente lançando modelos com o número um. Então, para dar aqui o contra-ataque da OpenAI, a OpenAI fez uma parceria com uma empresa chamada Figure, e eles lançaram o robô Figure1, que nada mais é do que um robô humanoide com o ChatGPT no cérebro, embarcado ali dentro da cabeça do robô.
Então, os funcionários da Open que saíram e fundaram uma startup agora vão ter o concorrente da própria OpenAI, que tinha abandonado o seu projeto de robôs porque avaliou, num determinado momento, ali em 2021, que não havia condições, ou talvez não fosse o foco da empresa, decidiram investir mais na questão do software mesmo, do Chat GPT, e deixaram a parte de robótica de lado. Agora, eles estão voltando, só que em parceria. Então, tem uma guerra comercial, tem outros competidores de peso chegando. Daqui a pouco a gente fala deles, mas o que a gente está vendo, Aros, é uma coisa muito mais sofisticada quando a gente pensa em robô, talvez a gente lembre do robô sendo algo meio automatizado, tanto da parte de hardware quanto de software. Então, aquele robô fazendo aqueles movimentos meio mecânicos do braço com o mesmo movimento, né? Se a gente pensar num robozinho de ficção científica estilo humanoide ou um robozinho que anda daqui para lá, mas ele teria ali uma movimentação muito limitada e se a gente pensar também no ponto de vista de programação, os chatbots são robôs, mas são robôs em forma de texto, esses robôs do passado, vou juntar tudo, software e hardware, eram robôs muito automatizados, muito pré-programados, e em que, em determinado momento, a gente percebia que eles não variavam, não tinham uma humanidade, eles não tinham um refinamento exigido, coisa que hoje só os humanos detêm.
Por isso que a gente já deu um passo com essa liga IA e robótica, mas obviamente o sonho de consumo, o objetivo final dessas empresas, é chegar numa combinação de Inteligência Artificial geral, ou seja, uma Inteligência Artificial que realmente pense como humano, não só dê determinadas respostas, mas que, em algum momento, perceba o mundo como o cérebro humano percebe e consiga transferir essas intenções, vamos chamar assim, para o corpo robótico. Então, o que a gente tá vendo hoje é um pedaço disso. É uma mistura de efeito WOW. Você fala assim: “Caramba, já tá muito refinado”. Ao mesmo tempo, você ainda tem um longo caminho a percorrer para que se chegue a algo parecido com o humano.
No caso desse braço robótico dessa startup, da Covariant, você vê que o braço é treinado de uma forma muito inteligente pela Inteligência Artificial. Então, como é que você treinava um braço robótico? Antigamente, você simplesmente escrevia ali um código de programação e determinava pro braço robótico determinadas funções. Faça daqui, pegue essa camisa, né? Imagina um depósito, um braço que, inclusive, tem a demonstração dessa empresa, o braço robótico antigamente programado era “pega essa camisa e jogue naquela caixa ali para entrega”. Ele só fazia funções básicas, e quando acontecia algo diferente, por exemplo, vamos supor que entrasse ali uma calça no meio da caixa, ele muitas vezes não entendia que tinha uma situação ali que ele não tinha sido programado para aquilo e parava. Hoje, o treinamento é bem diferente. O treinamento é como se fosse humano. Em vez de você determinar as tarefas para a máquina, você diz o seguinte: “Olha, o teu objetivo é pegar uma camisa dessa caixa e colocar nessa outra aqui, porque eu vou enviar esse troço para alguém, e você tem que fazer isso da melhor maneira possível, de uma maneira que você não danifique a caixa, a camisa e se vira”.
E aí a máquina ela começa a aprender por observação, por erro e acerto, como humano, é como se fosse uma criança ali nos primeiros passos, aprendendo a lidar com uma determinada situação. Então, você dá a tarefa à máquina, quando ela encontra uma dificuldade, ela aprende a resolver aquela dificuldade. Tem um exemplo dessa empresa que é muito interessante, que tem umas caixas de bolinhas de tênis, e a caixa, aquela caixinha é um tubo e fica em pé. Só que tem uma hora que o tubo está colado na parede da caixa, e o braço robótico não consegue pegar. O que que ele faz? Ele simplesmente derruba o tubo e, com aquilo ali, ele consegue ter um ângulo que ele consegue pegar o tubo das bolinhas de tênis. Então, esse é um exemplo bobo, para a gente é extremamente bobo, é como eu estou falando, é como se fosse uma criança ali de poucos anos aprendendo a se movimentar, a ter noção do seu próprio corpo e a resolver tarefas, e às vezes até bobas, para um ser humano, mas para uma máquina, extremamente complexas. Mas quando você combina essa Inteligência Artificial, portanto, esse jeito de aprender e constantemente aprendendo, porque pode ser que surjam outras situações, geralmente a gente está falando de robôs em ambientes controlados. Mas pode ser que surjam situações adversas, e a máquina tem que lidar com aquilo ali em tempo real, você combina isso com toda a evolução que se obteve nesses últimos anos de novos materiais, materiais mais leves, mais resistentes, a precisão da máquina, o tempo de resposta, Aros, também é algo que a gente precisa considerar, que evoluiu muito. Porque antigamente, você tem que imaginar que tem um programa e um circuito ali, como se fosse um cérebro do computador, nem que seja um braço robótico é um computador. Ele está processando informações nesse caso. Agora, eu estou falando de algo mais complexo ainda porque é uma Inteligência Artificial multimodal, ou seja, eu tenho o olhar espacial, a câmera está enxergando os objetivos, identificar formato, o braço robótico está tentando identificar peso, vai ter que calcular o angulo de ataque para pegar o produto, que força ele vai usar. São várias informações que esse robô tem que processar ao mesmo tempo a partir dessa IA para fazer com que as coisas funcionem também na rapidez humana. Então você imagina o poder de processamento que uma máquina dessa tem que ter.
Fato é que hoje existe essa evolução da IA, no sentido de software e de programação, mas também existe essa evolução que a máquina é capaz de processar, da quantidade, o volume de dados que ela é capaz de processar numa rapidez para que o movimento seja ali muito rápido e preciso. Portanto, isso é só o início porque, a gente está falando de um braço robótico. Mas se a gente for pensar num robô humanoide que se movimente, que ande, que se locomova, que possa pegar alguma coisa ao mesmo tempo em que converse com você como um humano faz, a gente ainda tá longe disso. Mas existe um caminho e os indícios para que a gente chegue nesse futuro aí mais complexo ele tá sendo desenhado nesse exato momento.
[CARLOS AROS]
Mas é interessante, né, Rafa, o quando a gente pensa que é tudo que está sendo desenvolvido no campo da robótica, ou quase tudo, cumpre com o objetivo do serviço, né? Um robô capaz de desempenhar x, y, z atividades, alguns uma atividade específica, outros multitarefas, esses mais complexos, evidentemente. E aí tem um vídeo das demonstrações, inclusive, dessa Covariant, que mostra o robô cumprindo uma série de atividades e oferecendo respostas e tal. E aí, num dado momento, ele acaba titubeando numa das tarefas ali que lhe foi solicitada, ele dá uma bugada. Uma situação parecida acontece quando a gente começa a interagir com a mensageria. Depois de um tempo, o bot começa a entender os atalhos, a compreender e aí essa experiência vai melhorando. O que eu estou dizendo com isso? Assim como a gente treina os modelos de IA para que eles comecem a aprender com base na experiência, nós vamos também adotar esse mesmo processo com os robôs. A questão é que um chatbot, ele está estático ali, parado, você vai interagindo com ele e ele vai, a partir dessas conversas e de outros dados que vão ser incorporados, ele vai criando musculatura para essa resposta acontecer. No caso do robô, ele precisa ser exposto, porque a gente tá falando de sensores que vão oferecer mais dados, uma percepção geográfica, ou seja, um robô que tá dentro de um ambiente fechado, sei lá, num prédio, ele vive uma realidade; um robô que tá noutro ambiente vive outra realidade. E aí, agora, a gente tem vários anúncios, né? A gente teve a Boston Dynamics falando sobre o uso da IA para melhorar essa experiência, a gente teve outra empresa, se não me engano, Figure alguma coisa, a gente teve a própria Covariant e a gente tem… Ah, fugiu o último… Ah, tem a Tesla, não é? É a Tesla, né, que está fazendo, do Elon Musk.
[RAFAEL COIMBRA]
Isso, a Tesla e tem também agora a Nvidia que está com projeto nessa linha.
[CARLOS AROS]
Ou seja, a gente tem várias empresas com propostas muito similares de encaminhamento e condução para isso. O que difere efetivamente cada uma delas, na sua visão?
[RAFAEL COIMBRA]
Difere propósito e as condições de treinamento. Então vamos lá, propósito, como eu tava falando na Covariant, a gente vê ali um projeto de um braço robótico, é um robô, ou pelo menos parte de um robô, que está sendo projetado para uma atividade específica. É claro que parece uma coisa simples, mas como a gente falou, é extremamente complexo. E aí tem uma coisa interessante, Aros, que é a forma como você também pode acelerar determinados treinamentos. Você pode fazer isso, por exemplo, com dados reais, que é o caso da Covariant, eles dizem que são bons porque eles conseguem colocar o braço robótico para ser treinado no mundo real. Então, já para te responder uma parte disso, a forma como esses robôs são treinados faz parte também dessa nova batalha de robôs. Então, eles usam elementos reais e dizem: “Olha, eu coloco aqui o meu braço robótico e ele vai ser treinado com o que tá acontecendo no ambiente ao redor dele, o ambiente físico 100%”.
Outras empresas trabalham com uma mistura desse ambiente físico, mas com simulações de dados sintéticos. O que eu estou querendo dizer com isso: imagina um carro autônomo, só para não ficar no robô, o carro autônomo é um robô. Esse carro autônomo, ele é treinado para fazer o seguinte: “Olha, você tem que andar em linha reta, quando você tiver numa reta, você tem que fazer a curva, quando tiver ali o semáforo vermelho, você tem que parar, se tiver uma pessoa na frente, você tem que frear”. Existe, obviamente, uma série de programações. Como é que você treina esse robô carro para fazer essas atividades? Você tem que dar dados para entender o que é uma pessoa, o que é uma árvore, o que é uma rua, o que é uma curva. Esses dados, pro robô, podem ser reais, como eu tô falando aqui, do ambiente físico, ou seja, você coloca um robo táxi na rua e fala: “Vai lá, se vira, aí descobre aí o que é o mundo, não pode matar ninguém e respeite as regras de trânsito”. Mas também, Aros, é uma coisa muito interessante que são dados sintéticos. Ou seja, pro robô, pouco importa se ele vai transformar no fundo aquela imagem de uma pessoa num código, para ele concorda? Ele vai ver, a câmera vai capturar a imagem de uma pessoa, essa imagem vai ser transformada em código binário e, para o computador, o que vale é aquela resposta: “Opa, é uma pessoa, tem que parar”.
Mas eu posso dar uma foto com essa IA generativa, agora que a gente tem, de gerar múltiplas pessoas, múltiplas árvores, múltiplas ruas. Eu posso criar cenários hiperrealistas com dados sintéticos. Ou seja, é uma informação que representa a realidade, mas ela não é real, ela é falsa, ela é sintética. E o computador começa a fazer testes em cima daqueles dados sintéticos. O que você ganha com isso? Velocidade. Você, em vez de colocar uma hora de treinamento do carro na rua, do robô, é uma hora de treinamento, mas com dado sintético, dependendo da capacidade de processamento, eu estou acelerando porque eu estou “enfiando ali goela abaixo” do robô informação sintética e estou falando assim: “Treina, treina, treina”. É a mesma coisa quando a gente está num simulador. Se você é um piloto de avião e vai usar um simulador de voo, você pode levantar voo e descer muito mais facilmente do que você realmente pegar um avião de verdade e decolar e pousar. Você ganha muito tempo quando você trabalha com simulações.
Então, existem essas variações de metodologia de treinamento. E como eu disse, tem essas diferenças do que você quer com o robô. Então, esse robô, ele tem uma atividade específica. Outras empresas estão trabalhando com robôs para atividades mais humanas, vamos dizer assim. Então, se você tem um braço robótico que é para fazer trabalho braçal, é uma coisa. Você tem empresas trabalhando com robôs humanoides para serem cuidadores de idosos. Você vai precisar, obviamente, de outras características desse robô que não trabalho, talvez o trabalho braçal, sim, para carregar uma pessoa idosa ali que esteja com dificuldade de locomoção, vai ter que ser um robô que tem robustez para pegar essa pessoa. Mas se eu tô tentando trabalhar com um robô que vai acompanhar, vai fazer ali um cuidador mental para dialogar com essa pessoa que tá ali sozinha e precisa de uma companhia, já são outras características que vão envolver mais essa parte do pensamento.
Então, acho que hoje a batalha é muito na questão da atividade, né? O que eu quero com esse robô. Mas óbvio que a gente vê aqui, em algum momento, haverá ali uma convergência. Quando a gente conseguir juntar essas partes, a gente está falando aqui de um pedaço de um braço, um robô que tem uma capacidade mais braçal, o outro mais mental, o outro mais de locomoção. Quando a gente juntar essas peças todas, nós teremos, lá na frente, robôs humanoides muito parecidos com humanos. Eu acho que no fim da história, Aros, se a gente olhar lá para o “futurão”, é muito provável que essas empresas elas convirjam para esses robôs que sejam humanoides, muito parecidos com a gente, aí, bem no campo da ficção científica mesmo, uma representação parecida com as mesmas funções, o mesmo jeito de pensar.
O que eu acho que, sinceramente, não é uma boa ideia para todo mundo, porque eu acho que se, quando você coloca robôs específicos para determinadas tarefas, eles vão ser melhores executores que humanos. Nem sempre andar em duas pernas é a melhor opção, né? Tem animais que se locomovem muito mais rapidamente do que a gente e não tem duas pernas né. A gente tem algumas vantagens competitivas em termos de evolução, mas sei lá, se eu pudesse trocar as pernas para uma roda, talvez a gente tenha um robô que seja meio humano e meio alguma outra coisa que dê vantagem para ele competitiva no sentido da robótica. Então, eu gosto de pensar em soluções que não fiquem exatamente presas no corpo humano. O corpo humano foi maravilhoso, nos trouxe até aqui, mas ele tem determinadas falhas para determinadas situações.
[CARLOS AROS]
E do outro lado, Rafa, quando a gente pensa nessas empresas, vamos usar OpenAI como exemplo aqui porque ela está no centro de estudo. O que a OpenAI tem feito é dia após dia tentar ampliar as capacidades do modelo dela.
Então, ela faz isso com foco em diferentes aplicações. A gente está percebendo que está aquecido, portanto, esse mercado de robótica. Então vamos entender que o dinheiro está caminhando por ali. Se o dinheiro está caminhando por ali, as empresas vão se orientar também nessa mesma direção.
O que muda para o desenvolvimento ou no desenvolvimento desses modelos como orientação para esses negócios? Porque a gente, você citou os carros autônomos aí, eles são talvez um exemplo bem interessante. Porque, por mais que a gente tenha avançado em muitos aspectos, há ainda uma discussão bastante importante sobre os riscos e deficiências dos carros autônomos no processo ali do dia a dia. O que que tem que mudar na premissa, nada? Ou não tem mudanças na maneira como esses dados são trabalhados, como os modelos são estabelecidos tem para essas empresas uma jornada diferente?
[RAFAEL COIMBRA]
Tem Aros e eu acho que a gente está vendo, vou dividir a resposta aqui em duas. Primeiro, a gente está vendo aqui uma batalha que, na minha concepção, é muito parecida com o que a gente viu lá atrás dos computadores. Para quem é mais antigo, vai lembrar que tinha ali uma disputa entre computadores hardware. Lá atrás tinha IBM, você tinha a própria Apple e tinha surgido, de repente, uma empresa chamada Microsoft que falava: “Eu não estou me ligando muito para quem vai usar o meu software, desde que use o Windows.”
Então, você tem ali, num determinado momento da história da computação, estratégias diferentes: quem aposta em hardware ou hardware com um software integrado e uma outra empresa que se mostrou nessa estratégia muito boa que foi o Windows, que começou a espalhar o seu software e foi dominante, né? O Windows até hoje é um sistema operacional dominante no mundo. Eu acho que a gente está vendo a mesma coisa com a IA, ou seja, algumas empresas vão se dedicar mais ao hardware e aí eu falei da NVIDIA aqui rapidinho com você, mas eu coloco muitas fichas porque a NVIDIA está trabalhando, obviamente, com placas gráficas, ela hoje fornece uma grande parte da infraestrutura para empresas de IA, mas ela já começa a dar alguns passos ali, literalmente, com alguns robôs humanoides.
Então, uma empresa que tem foco no hardware, talvez possa criar os melhores robôs em termos de equipamentos para que uma outra empresa embarque o software e aí eu já estou apostando mais na OpenAI. Então, OpenAI, eu acho que ela foi inteligente ao abrir mão de ter uma divisão de robôs, porque isso poderia drenar as energias dentro dessa competição, ela está muito focada no sistema dela que é o Chat GPT. Todo mundo aí falando já do GPT-5 que daqui a pouco vai sair e ela está fazendo uma parceria com essa empresa Figure One. Então, ela pode usar essas empresas parceiras estratégicas para fazer testes, mas talvez a gente possa, talvez o chat CPT seja o novo Windows dos Robôs. É isso que eu essa metáfora que eu queria fazer aqui. E talvez a gente tenha ali um tipo de ou tipos de robôs diferentes que vão usar essa IA embarcada ali. Então, é essa é uma é uma visão estratégica que eu estou observando das empresas.
A outra, outro ponto que você trouxe importante são os novos problemas. Se a gente tinha problemas na robótica antiga, a gente terá problemas, provavelmente, com a robótica nova para misturar com o que a gente já viu isso acontecendo, por exemplo, preconceito, por exemplo, alucinações quando a gente usa às vezes uma agora diminuiu bastante, mas ainda existem casos em que você está usando ali uma IA generativa e você pergunta uma coisa, ela começa a ir para um outro caminho e começa a responder coisas que você não pediu. Talvez a gente, talvez não, nós teremos que enfrentar esses mesmos lemas, alguns inclusive humanos, mas aplicados a Inteligência Artificial dentro desse novo contexto. Imagina um humanoide já todo sofisticado com força nos braços, nas pernas, com uma e a dessa embarcada ali no cérebro do robô e ele começa a alucinar a tomar decisões que você não pediu para ele tomar ou a ser preconceituoso e um robô segurança preconceituoso, a gente não quer isso.
Então, essa combinação também, e em termos de responsabilidade, isso deverá ser revisto, deverá ser pensado o tempo inteiro, porque, obviamente, nós cairemos nessa cilada. Lembrando que a IA que a gente está projetando e os robôs que a gente que nós estamos projetando, em tese, são a nossa imagem e a nossa imagem, infelizmente, coletiva ela tem erros, ela tem falhas, os humanos não são 100% perfeitos e é preciso que a gente evite que essa mesma reprodução aconteça quando a gente tiver um robô humanoide.
[CARLOS AROS]
Rafa, para gente fechar aqui esse tópico. Se a gente fosse brincar de War falando em robótica, quais países estariam na frente nessa partida?
[RAFAEL COIMBRA]
Eu acho que não dá para a gente fugir dos Estados Unidos, Aros. Essas iniciativas, ou a maior parte delas, vem dos Estados Unidos. Estados Unidos realmente lideram com força. A Europa tem algumas empresas em ambiente bem industrial e, se a gente for dar uma olhada, tem fábricas interessantes na Europa para a gente olhar, mas de fato os Estados Unidos estão liderando. A gente tem que ficar sempre de olho lá do outro lado na Ásia, a China, do ponto de vista de IA, a gente não acompanha muito aqui no ocidente, mas tem várias empresas nesse exato momento trabalhando com a IA generativa num grau elevadíssimo. A gente sabe que a China nos últimos anos copiou, importou, se inspirou e trouxe inclusive muita pesquisa vinda de fora, e não será surpreendente a gente ver a China, mas tem outros países asiáticos também trabalhando com robôs humanoides. Acho que foi um da China há pouco tempo que bateu o recorde mundial de velocidade. A gente tem empresas lá fazendo os robôs em formato de cachorro, aqueles que a gente já viu em alguns filmes também. Eles estão avançados. Eu ficaria de olho nos Estados Unidos e na Ásia, mas por enquanto, acho que os Estados Unidos estão levando uma vantagem nessa corrida.
[TRILHA: O QUE MAIS VOCÊ PRECISA SABER]
[CARLOS AROS]
Bom, então vamos virar a chave aqui, como diz o André Micelli, vamos trazer os assuntos que a gente está de olho. Vou começar, posso? Algo que já esperava, vamos que fosse acontecer, e agora pronto, começou.
A Comissão Europeia já está iniciando um processo de investigação das Big Techs Apple, Google e Meta por violações da Lei dos Mercados Digitais. Falei dessa lei há algum tempo aqui. Entrou em vigor em março, comecinho de março, e as grandes empresas têm que fornecer um processo de condições iguais na disputa pelo mercado, sem que tenha qualquer tipo de protecionismo ou qualquer tipo de instrumento que faça com que o tamanho dessa empresa e a presença dela no mercado se tornem impeditivos para a livre concorrência. E aí, multas que podem chegar até 10% do faturamento global da empresa.
E aí, o que que acontece? Quando a lei foi pensada e quando ela entrou em vigor, todo mundo dizia assim: “Ah, a gente já sabe que essas empresas vão entrar na mira.” E sim, a lei foi feita basicamente para as Big Techs. E agora a Comissão Europeia diz que suspeita que as empresas adotem medidas que não estão em conformidade com a lei.
O que está sendo investigado? Como a Alphabet direciona o Google Play, o esquema de auto preferência do Google Search, ou seja, você faz a busca e ela vai jogar para produtos e serviços do Google parceiros. As regras da Apple sobre a App Store e o Safari, que tem ali também um ecossistema que já direciona para a própria Apple. No caso da Meta, é o modelo de pagamento ou consentimento. E aí, o que o chefe da Comissão Europeia disse numa entrevista para a imprensa esse final de semana foi o seguinte: ele disse assim que a lei é a lei, não vamos simplesmente sentar e esperar. As empresas estão se manifestando que vão cumprir com o que diz a lei, mas o ponto é que agora a Comissão Europeia vai começar a mergulhar fundo nessa questão e a vida das Big Techs não vai ser mais fácil em função disso. As multas são só o começo. E aí, a grande questão é: a Europa costuma servir de laboratório para que iniciativas similares desenrolem pelo mundo. E aí, a questão fica mais complicada. Aquele velho ditado de que aí o buraco é mais embaixo. Rafa.
[RAFAEL COIMBRA]
E do meu lado aqui também, eu separei uma coisa que eu estou de olho que tem relação com que você tá falando, porque esse ano eu acho que as Big Techs estão apanhando, né? Seja via essas mais ligadas a alguns equipamentos, como a Apple, ou redes sociais. Mas estou trazendo aqui para a gente também pensar na batalha dos chips. Porque a China, acabei de falar também, novamente em China, a China anunciou uma medida que talvez seja mais dura até agora dentro dessa batalha tecnológica com os Estados Unidos.
Ela decidiu barrar os chips da Intel e da AMD. É uma lista grande de modelos. Para a gente pensar do ponto de vista comercial, a China é um mercado muito importante ainda para os Estados Unidos. Apesar dessa brigada toda, eles estão se afastando cada vez mais os dois países, mas ainda tem um peso muito grande nas vendas. Então, para a gente ter uma ideia, no caso da Intel, 27% das vendas foram pra China, e no caso da AMD, 15% pra China. Ou seja, é muita coisa que ainda se vende de processador pra China, só que agora o país, alegando, né, os velhos motivos da segurança nacional, tá dizendo: “Olha, não pode mais esse tipo de chip norte-americano aqui.” Já havia outras medidas, a gente já anunciou aqui no passado, não pode agora usar iPhone, ah, perdão, esses dados que eu dei são globais, né, de vendas de chip no geral, mas a proibição, só pra deixar claro, foi especificamente para órgãos governamentais. Essa mesma medida também já tinha visto, como eu tava comentando mais recentemente, em que o iPhone não pode ser usado e nos Estados Unidos a mesma coisa. Os Estados Unidos vêm bloqueando aplicativos, o TikTok tem essa briga agora. Talvez o TikTok seja obrigado a ser vendido, ou caso isso não aconteça, o aplicativo vai ser banido dos Estados Unidos também, novamente com motivos de segurança nacional. Não pode usar TikTok em computador e dispositivo governamental nos Estados Unidos estão colocando dinheiro na Intel, só para citar aqui a empresa que eu acabei de falar, para que se reforce a produção nacional de chips, para que não fique dependente dos países asiáticos. Então, essa briga, ela realmente tá causando uma cisão.
A gente vai começar a ver cada vez mais produções locais e, no caso da China, pode ter um efeito interessante, vou chamar assim, e local interno, porque a China não vem tendo um desempenho econômico tão bom quanto já teve no passado, e obviamente, no momento em que ela começa a cortar a produção primeiro para órgãos governamentais, mas se ela estender essa medida para tudo, obviamente que a indústria nacional local vai ter que dar conta disso, né? Então, talvez a gente veja aí um fortalecimento da indústria de chips da China para que supra essa necessidade. Isso pode gerar algum impacto na economia, mas a gente está vendo uma polarização muito grande nessa batalha tecnológica e mais um revés aí para as empresas norte-americanas.
[CARLOS AROS]
Aguardemos as cenas dos próximos capítulos. Rafael Coimbra, nos encontramos aqui na semana que vem com o retorno do nosso André Melli, hein? Um abraço.
[RAFAEL COIMBRA]
Com certeza. Estamos aguardando, André. Aqui, abraço a todos que nos ouvem. Até a semana que vem.
[CARLOS AROS]
Até a semana que vem. Eu lembro a você que o podcast da MIT Technology Review Brasil é um oferecimento do SAS.
[PROPAGANDA: A plataforma SAS Viya é a forma mais rápida de transformar um bilhão de dados em um ponto de vista. Saiba mais em www.sas.com]
[CARLOS AROS]
Você confere esta edição e os episódios anteriores lá no nosso Spotify. Se você ainda não curtiu, dá aquele like, siga a nossa playlist para receber as atualizações. E fica ligado também no nosso site, tem muito conteúdo sempre fresquinho, muito relevante para você pensar, para você refletir, entender o que está acontecendo com o mundo dos negócios, com o mercado de tecnologia e, sobretudo, com a nossa sociedade. Um grande abraço. A gente se encontra aqui na semana que vem. Tchau, tchau.
[TRILHA SONORA]