No dia 7 de maio de 2023, às 11h (horário de Pequim), o GPT DAO realizou um Twitter Space com o tema “Veteranos da IA mergulham na história e evolução da AGI”. Neste AMA, especialistas experientes em inteligência artificial analisaram a fundo a trajetória tecnológica da AGI e debateram o impacto da IA em nossas vidas e no futuro.
Além disso, uma equipe de observação formada por veículos como GPT DAO, ChainDD, Feixiaohao e BroadChain Finance também explorou questões sobre o impacto futuro da tecnologia de IA e os desafios que ela enfrenta.

Conheça os participantes do Twitter Space:
Convidados:
Yang Ning: Investidor-anjo, sócio-fundador da Lebo Capital e presidente-fundador da Chinese Angel Federation.
Chen Kui: Ex-vice-presidente global da Citrix, ex-executivo do Grupo de Pesquisa e Desenvolvimento da Microsoft Ásia-Pacífico e ex-executivo da Cisco e da Computer Associates.
Bai Qiang: Membro central do GPT DAO, empreendedor e investidor com trajetória da Web1 à Web3, formado em Matemática pela Universidade de Ciência e Tecnologia da China e em Estatística Matemática pela Universidade Purdue (EUA), ex-coordenador da iFLYTEK.
Moderadora:
Zoie: Membro central do GPT DAO, responsável pelo Sub DAO de Cingapura e Venture Partner da LK Ventures.
Equipe de Observação da Imprensa:
Cai Jijun (Co-moderador): Membro central e co-fundador da Fast Global.
Da’erji: Vice-editor-chefe executivo da região leste da China da ChainDD.
Sun Yan: Editor-chefe executivo da Feixiaohao.
Wang Hui: Fundador da BroadChain Finance e iniciador da 1783DAO.
Mídia Apoiadora:
Ti Media, ChainDD, Feixiaohao, Foresight News, BroadChain Finance.
Resumimos os principais pontos deste AMA para os nossos leitores.
P1: Recentemente, Geoffrey Hinton, diretor de pesquisa em IA do Google e pioneiro em redes neurais, anunciou sua aposentadoria em 1º de maio. Segundo relatos, ele se afastou por preocupação com a IA generativa, temendo que os sistemas de IA se tornem cada vez mais perigosos. Sem regulação, essa corrida não vai parar, e o ritmo de desenvolvimento da IA pode superar nossas expectativas, levando eventualmente a uma perda de controle. O que vocês pensam sobre isso?
Yang Ning:
Filosoficamente, acredito que a natureza humana é essencialmente boa. Nossos valores centrais e nossa humanidade nos permitiram prosperar e nos tornar uma das espécies mais avançadas do planeta. Os dados e o conhecimento usados para treinar a IA vêm dos seres humanos, então acredito que ela está sendo desenvolvida com boas intenções. Desde que grandes empresas, autores influentes e especialistas em IA sejam pessoas bem-intencionadas, a IA que eles criam também será benevolente — assim como nossos filhos, que seguem os bons princípios que lhes ensinamos. Por isso, não acredito que a IA saia do controle, nem vejo necessidade de uma regulação excessiva ou de normas éticas muito rígidas.
Moderadora Zoie:
Se a natureza humana é boa, mas as redes neurais da IA não podem ser totalmente analisadas de forma lógica, que medidas técnicas podemos adotar para garantir que os robôs de IA não pratiquem atos maliciosos? Como a regulação deve acompanhar o desenvolvimento da IA? Outros convidados têm algo a acrescentar?
Bai Qiang:
Primeiro, a narrativa de medo promovida por Elon Musk tem motivações particulares, assim como a postura de Biden, que a usa como capital político. Muitos defensores da ética e governança da IA também buscam, de certa forma, proteger seus próprios interesses. Há muitos anos, quando trabalhávamos na iFLYTEK desenvolvendo ferramentas de voz com IA, o tema da governança já era discutido. É uma extensão natural da popularização da tecnologia, não é novidade. Se nem mesmo entendemos completamente como nosso cérebro funciona, é impossível compreender totalmente as redes neurais da IA, então não podemos afirmar se ela poderá agir de forma maléfica ou não. Do ponto de vista regulatório, os órgãos costumam ficar atrás dos inovadores, o que cria um dilema: “regule demais e tudo morre; não regule e tudo vira caos”.
Yang Ning:
Se eu fosse responsável por regular a IA, também acharia um desafio enorme, sem um ponto de partida claro. Deveríamos regular no nível do código técnico ou no das aplicações? Essa postura contra a IA me lembra a antiga onda de oposição às vacinas nos EUA. Já que nem compreendemos totalmente o cérebro humano, nem prevemos quando ele pode entrar em colapso, não há motivo para temer a IA de forma irracional. Acredito que, à medida que as pessoas se acostumarem com as conveniências trazidas pela IA, vão aceitá-la cada vez mais e aprender a conviver em harmonia com ela.
Chen Kui:
Essa tendência já é inevitável. O fundamental, na minha opinião, é ter consciência dos riscos, pois, com o surgimento contínuo de novas capacidades da IA, não sabemos quando ela pode perder o controle — ou até mesmo se tornar uma ameaça para a humanidade, sem aviso prévio. Antes de resolver as questões regulatórias, precisamos primeiro aceitar e entender a IA, reconhecendo as oportunidades que ela oferece. Por isso, recomendo focar em explorar quais oportunidades a IA pode criar e como podemos aproveitá-las no futuro para melhorar nossa qualidade de vida.
P2: O Midjourney é atualmente a ferramenta de geração de imagens AIGC mais popular. Quais são suas vantagens técnicas em comparação com a concorrência? Qual é o futuro promissor dessas ferramentas?
Bai Qiang:
Embora as tecnologias atuais de geração de imagens por IA variem — seja o Midjourney ou outras ferramentas AIGC —, seu verdadeiro sucesso dependerá de como são usadas para criar conteúdos cativantes. Um bom exemplo é a Pixar: fundada inicialmente por George Lucas como um estúdio, foi depois adquirida por Steve Jobs. No início, Jobs posicionou a empresa como fabricante de hardware, mas, após o fracasso dessa estratégia, migrou para o software. Foi quando John Lasseter entrou na Pixar e, com seu talento criativo excepcional, produziu um curta-metragem animado por computador que ganhou o Oscar. Isso fez Jobs repensar a direção da empresa, culminando na parceria com a Disney para produzir filmes como “Toy Story”, que alçou a Pixar ao topo da animação mundial.
Assim como a Pixar se transformou de uma empresa de hardware e software em dificuldades em uma referência global graças ao talento de John Lasseter, qualquer equipe ou ferramenta focada em geração de conteúdo por IA precisa encontrar seu ponto de virada. Uma empresa que se torne a “Pixar da era da IA” certamente terá sucesso, enquanto aquelas focadas apenas em ferramentas provavelmente serão substituídas.
Moderadora Zoie: A equipe do Midjourney tem apenas 11 pessoas, gera mais de US$ 100 milhões por ano e já conta com uma comunidade de 15 milhões de usuários. Diante do avanço acelerado da IA, gostaria de perguntar a Chen Kui, que teve cargos de liderança em grandes empresas de tecnologia: que mudanças e tendências você prevê para a estrutura organizacional e os recursos humanos no futuro?
Chen Kui:
A transformação das empresas e dos talentos, junto com a evolução do setor, são realmente os temas centrais do momento. Antes de entrar nesses assuntos, queria comentar brevemente o modelo evolutivo da “trindade” que o Lu Qi mencionou em sua palestra. Esse modelo abrange três sistemas interligados: o sistema de informação, o sistema de modelos e o sistema de ação. No desenvolvimento da inteligência artificial (IA), esses três sistemas são interdependentes e, juntos, impulsionam o avanço tecnológico.
1. Sistema de Informação: É a infraestrutura de dados, responsável por coletar, armazenar e processar grandes volumes de informação. Com a popularização da internet e da internet das coisas (IoT), esse sistema ficou cada vez mais amplo e complexo. Ele fornece fontes de dados ricas e diversificadas para os algoritmos de aprendizado de máquina e IA, permitindo que extraiam informações valiosas.
2. Sistema de Modelos: São as ferramentas analíticas e preditivas baseadas em dados, como os algoritmos de aprendizado de máquina e os modelos de IA. Eles usam os dados do sistema de informação para identificar padrões e regularidades através de treinamento e otimização. Com o aumento do poder computacional e a melhoria contínua dos algoritmos, os sistemas de modelos se tornaram cada vez mais capazes de resolver problemas complexos — como reconhecimento de imagem, processamento de linguagem natural (NLP) e sistemas de recomendação.
3. Sistema de Ação: É a parte que transforma as previsões e análises do sistema de modelos em ações concretas. Geralmente inclui dispositivos físicos executores, como robôs, veículos autônomos e equipamentos de automação residencial. Esse sistema é responsável por converter os resultados dos modelos em operações úteis, tornando possíveis as aplicações práticas da IA.
O modelo evolutivo da “trindade” destaca justamente a interdependência entre o sistema de informação, o sistema de modelos e o sistema de ação. Ele revela as principais forças motrizes por trás do desenvolvimento da IA e o papel crucial desses sistemas na inovação tecnológica e em suas aplicações práticas. Ao integrar estrategicamente esses três sistemas, conseguimos entender e enfrentar com mais eficiência os desafios complexos do mundo atual.
No momento, estamos na fase do sistema de informação. À medida que as capacidades de raciocínio e planejamento do sistema de modelos melhoram, vamos passar a interagir ativamente com o ambiente para atingir objetivos humanos. Nesta era digital, a forma como os seres humanos obtêm, expressam e agem sobre as informações para satisfazer suas necessidades é semelhante à dos sistemas digitais. As tecnologias de IA baseadas em aprendizado profundo (deep learning) e computação em nuvem já eliminaram as diferenças de custo e tecnologia entre grandes corporações e pequenas e médias empresas (PMEs). Os fatores competitivos que restam estão concentrados em talentos, criatividade e capacidade de execução. Além disso, a colaboração entre grandes empresas e PMEs também tem um impacto positivo no mercado. Por isso, prevejo que a computação em nuvem e os grandes modelos de IA se tornarão serviços onipresentes, abrindo enormes oportunidades de mercado para startups inovadoras. Isso vai incentivar cada vez mais jovens a empreender, focando na aplicação prática de tecnologias de código aberto (open source) no mercado. No geral, sou otimista em relação ao futuro: humanos e IA vão coexistir por um longo período. Durante essa fase, precisaremos aprender a nos comunicar e colaborar de forma eficaz com a IA. No futuro, muitas profissões provavelmente estarão intimamente ligadas à IA; embora vários cargos com tarefas repetitivas possam desaparecer, novas ocupações certamente vão surgir. Em resumo, mantenho uma postura positiva e otimista diante das transformações do setor e das perspectivas de carreira.
P3: Muito obrigado a todos os convidados por participarem hoje. No início desta sessão, discutimos a regulação da IA. Para ilustrar, cito uma frase de George Soros: “A inovação sempre precede a regulação”, seja na inovação financeira que desencadeou a crise global, na inovação Web 3.0 ou na inovação em IA. Com o rápido avanço da IA, muitas pessoas temem que seus empregos sejam substituídos. Já falamos sobre a equipe de apenas 11 pessoas da Midjourney e sobre novos formatos organizacionais. O tema de hoje é “O passado e o presente da AGI”. Vamos refletir juntos sobre a trajetória percorrida e as perspectivas futuras da IA.
Yang Ning:
Desde meados do século XX, quando Alan Turing propôs o teste que leva seu nome — estabelecendo os fundamentos da ciência da computação —, as pessoas começaram a perceber a diferença fundamental entre a IA e os computadores tradicionais. O desenvolvimento da IA passou por várias fases, incluindo a evolução contínua de métodos como redes neurais, aprendizado profundo (deep learning) e aprendizado por reforço (reinforcement learning). As redes neurais imitam a estrutura do cérebro humano, o que trouxe melhorias significativas na capacidade de processar e aprender com dados. Esse método alcançou avanços importantes em áreas como reconhecimento de imagem, reconhecimento de fala e processamento de linguagem natural.
Depois, o aprendizado profundo — um ramo das redes neurais — passou a usar redes ainda mais profundas para processar informações digitais complexas, tornando-se um tema central na pesquisa em IA. Já o aprendizado por reforço é um método baseado em tentativa e erro, no qual a IA interage com o ambiente e com outros agentes para aprender a tomar as melhores decisões. Esse método obteve resultados impressionantes no campo dos jogos, como no caso do AlphaGo da DeepMind, que derrotou o campeão mundial de Go, mostrando claramente o enorme potencial da IA na tomada de decisões e na formulação de estratégias. Nos últimos anos, a AGI (Inteligência Artificial Geral) se tornou um foco prioritário de pesquisa. O objetivo é criar máquinas com um nível de intelig��ncia comparável ao humano, capazes de interagir naturalmente conosco em uma ampla variedade de situações. Paralelamente, grandes modelos de linguagem pré-treinados — como a série GPT da OpenAI — tiveram progressos notáveis, melhorando significativamente a capacidade das máquinas de entender a linguagem natural e, assim, pavimentando o caminho para uma comunicação mais profunda entre IA e humanos. Na minha visão, humanos e IA podem coexistir e se fortalecer mutuamente. As aplicações da IA já abrangem áreas como saúde, educação, finanças e transporte, elevando substancialmente tanto a produtividade quanto a qualidade de vida.
O desenvolvimento da inteligência humana está muito aquém do seu potencial máximo — ou seja, usamos apenas uma fração mínima da capacidade do nosso cérebro. Se a IA puder ajudar a despertar esse potencial latente, poderemos progredir juntos, de forma complementar. No futuro, nos tornaremos mais inteligentes e sábios, capazes de acompanhar o ritmo de uma IA cada vez mais poderosa.
Bai Qiang:
Minha posição é mais pessimista: o desenvolvimento da internet e da IA não tornou o mundo melhor. Do ponto de vista da internet, a maior fluidez da informação não impediu o controle das forças dominantes; pelo contrário, intensificou a fragmentação social. A AGI enfrentará os mesmos desafios: embora o avanço tecnológico torne algumas pessoas ainda mais capazes, a grande maioria tende a ficar cada vez mais desinformada e preguiçosa. Acredito que isso acontece porque, em uma sociedade altamente desenvolvida, as pessoas deixam de precisar se esforçar — e, consequentemente, ficam menos inteligentes. Há questões muito mais profundas aqui. Com a chegada da AGI, nossa vulnerabilidade aumentará? É algo que merece uma reflexão cuidadosa.
Chen Kui:
Entre o otimismo e o pessimismo, prefiro uma posição equilibrada. Claro, dentro do nosso setor, não devemos ignorar a história, pois as experiências passadas nos ajudam a enfrentar melhor os desafios atuais e futuros. Já que falamos sobre “passado e presente”, vale lembrar as Três Leis da Robótica de Isaac Asimov: Primeira Lei — Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra dano; Segunda Lei — Um robô deve obedecer às ordens dadas por seres humanos, exceto quando essas ordens entrarem em conflito com a Primeira Lei; Terceira Lei — Um robô deve proteger sua própria existência, desde que essa proteção não entre em conflito com a Primeira ou a Segunda Lei. É uma concepção muito idealizada, mas tem grande relevância para orientar o caminho do desenvolvimento da IA.
Quanto ao surgimento da AGI, acho que ela terá um impacto profundo na humanidade — se será benéfico ou prejudicial, ainda é incerto. No entanto, fico particularmente satisfeito ao ver que a OpenAI propôs três princípios fundamentais:
1. Benefícios Amplos: O objetivo é garantir que a AGI tenha um impacto positivo sobre a humanidade e assegurar que seu desenvolvimento não prejudique os seres humanos nem concentre excessivamente o poder.
2. Segurança de Longo Prazo: Se outros projetos tiverem mais chances de criar uma AGI segura, a OpenAI priorizará a colaboração com eles, em vez da competição.
3. Liderança Técnica: Para ter um impacto real e significativo em termos de segurança e impacto social, a OpenAI continuará buscando avanços importantes nessa área, mantendo sua influência na pesquisa e aplicação da AGI.
Esses princípios podem maximizar o florescimento da humanidade no universo e garantir que os benefícios da AGI sejam amplamente compartilhados, ajudando-nos a enfrentar com sucesso os riscos envolvidos. Embora o futuro esteja cheio de incertezas, acredito firmemente que devemos manter a esperança, encarar as mudanças de forma proativa e buscar continuamente novas oportunidades. Por fim, devemos aproveitar ao máximo os momentos bons da vida — até celebrarmos, com alegria, nosso último instante.
Interação com a Mídia
Sun Yan, Editor-Chefe Executivo da Feixiaohao:
Não sou particularmente otimista nem pessimista em relação à IA; como a maioria das pessoas, me sinto mais no escuro sobre o assunto. Testei algumas plataformas inteligentes, como ChatGPT e Midjourney, mas não vi muita utilidade prática nelas. Também evito usá-las em plataformas de mídia, pois isso comprometeria minha singularidade. Sinceramente, não sinto de forma marcante os benefícios tangíveis trazidos pela IA ou pela AGI. Como mostra o filme “2001: Uma Odisseia no Espaço”, as descrições feitas na época não me causam tanto impacto hoje, porque a realidade parece mais prosaica — menos mágica ou tecnologicamente avançada do que imaginávamos. Por isso, no momento estou num estado neutro: nem otimista, nem pessimista — apenas uma pessoa comum entre bilhões.
Wang Hui, Fundador da BoChain Finance e da 1783DAO:
Depois de ouvir os outros convidados, gostaria de fazer algumas perguntas ao Sr. Yang. Partindo da cultura oriental — por exemplo, do princípio confucionista “o homem é bom por natureza” —, poderíamos inferir que a IA também seria, por natureza, boa. No entanto, o desenvolvimento atual da IA está sendo monopolizado e conduzido principalmente por gigantes ocidentais. Será que a cultura ocidental tem um legado equivalente ao conceito oriental de “natureza intrinsecamente boa”? Sob a ótica da cultura ocidental, qual seria o futuro da convivência entre IA e humanos?
Yang Ning:
Essa é uma excelente pergunta. Os seres humanos compartilham características universais e uma natureza comum: qualidades como bondade, cooperação e empatia são semelhantes, independentemente da cultura, etnia ou contexto. Por isso, me oponho ao conceito de “floresta escura” apresentado na trilogia “Três Corpos”: os humanos não são animais irracionais, mas seres capazes de formar equipes e estruturas organizacionais. Ao treinar modelos de aprendizado de máquina, a qualidade dos dados é crucial — afinal, a qualidade desses dados e a precisão de suas etiquetas determinam diretamente a eficácia do treinamento. Além disso, os desenvolvedores da IA exercem uma influência decisiva, pois a “humanidade” da máquina vem, em última análise, dos próprios humanos.
Wang Hui, Fundador da BoChain Finance e da 1783DAO:
Tenho mais uma pergunta para o Sr. Bai Qiang: você comentou que muitas ferramentas podem desaparecer. Isso significa que o ChatGPT também vai sumir? Se sim, quais projetos, na sua opinião, têm condições de se manter a longo prazo no campo da IA?
Bai Qiang:
Acredito que a base da OpenAI está nos seus modelos de linguagem de grande escala (LLMs), não apenas em produtos como o ChatGPT. Mesmo que ferramentas específicas desapareçam, a OpenAI mantém sua principal vantagem competitiva: um volume massivo de dados. O que vai definir quem se destaca no mercado é a capacidade de se transformar em uma empresa de conteúdo na nova era da AGI (Inteligência Geral Artificial). Veja o exemplo da Pixar: ela evoluiu para uma produtora de conteúdo de altíssima qualidade, vencedora de Oscars. Hoje, precisamos repensar modelos e produtos a partir da perspectiva da IA, sem ficar presos a formas tradicionais de pensar. É crucial refletir sobre como definir todos os aspectos nessa nova era e identificar oportunidades reais de empreendedorismo e investimento. Tenho convicção de que, com essa mentalidade, surgirão muitas oportunidades no futuro.
Dorji, Subeditor Executivo da Região Leste da ChainDD:
Tenho uma dúvida: o Teste de Turing ainda serve como padrão para avaliar a AGI, ou precisamos de outros critérios?
Yang Ning:
Podemos analisar por dois vieses principais: testar o nível de inteligência da máquina e avaliar seu grau de "psicologia" (capacidade cognitiva e comportamental semelhante à humana). Sobre a inteligência, o Teste de Turing tradicional já está ultrapassado. Precisamos de novos métodos de avaliação — testes de QI, por exemplo — para quantificar o nível das máquinas. Mas esses testes devem evitar que os desenvolvedores otimizem os modelos apenas para passar neles. Quanto ao aspecto psicológico, acredito que devemos criar testes específicos para máquinas, inspirados nos testes psicológicos humanos, para entender melhor seu estado cognitivo e comportamental. Ambas as frentes são extremamente importantes e sérias, e devem ser prioridades de pesquisa em universidades e institutos científicos.
Dorji, Subeditor Executivo da Região Leste da ChainDD:
Obrigado, Sr. Yang. Tenho mais uma pergunta sobre ética na IA: ao transferirmos funções e responsabilidades sociais para as máquinas, como garantir que as questões éticas sejam tratadas corretamente? Por exemplo, na condução autônoma, os avanços da IA podem abrir caminho para uma nova era, com instruções mais complexas e multimodais. O desafio está em garantir que, ao adotarmos essas tecnologias, as questões éticas sejam cuidadosamente gerenciadas. Como devemos treinar os sistemas para isso?
Yang Ning:
A questão vai além da ética — é, no fundo, um problema jurídico. Envolve principalmente a diferença entre algoritmos determinísticos e probabilísticos. Um algoritmo determinístico garante que, sob as mesmas condições, a máquina sempre tomará a mesma decisão. Já os algoritmos de IA são probabilísticos: nas mesmas condições, podem produzir decisões diferentes.
Por isso, atualmente, nenhum país do mundo permite que sistemas de decisão baseados em modelos probabilísticos sejam operados por IA — isso gera problemas de responsabilidade legal. Em um acidente com um veículo autônomo, por exemplo, quem é o responsável? Se houver um motorista no carro, a responsabilidade é dele. Se o veículo estiver vazio, a empresa que fornece o serviço de condução autônoma deve assumir a culpa.
No momento, ainda não confiamos o suficiente na IA para permitir que ela tome decisões que possam afetar diretamente vidas ou causar danos graves. Na aviação, por exemplo, as autoridades reguladoras não permitem que a IA tome esse tipo de decisão. Só autorizam decisões humanas ou processos automatizados baseados em algoritmos determinísticos — aqueles que, para uma mesma entrada, sempre produzem a mesma saída. É por isso que, em nossos projetos atuais com drones (UAVs), usamos apenas algoritmos determinísticos — é um requisito obrigatório para obter aprovação das autoridades de aviação civil.
Esses foram os principais pontos deste Twitter Space. Esperamos que todos tenham obtido informações e insights valiosos. O GPT DAO é a comunidade mais técnica e aprofundada para compartilhar informações sobre AGI, com foco em conteúdo especializado e de alta profundidade — não deixe de acompanhar!
Siga o Twitter do GPT DAO para ficar por dentro dos próximos eventos.
Twitter em chinês: @GPTDAOCN
Twitter em inglês: @GPTDAOGLOBAL
