Twitter Space回顾 | AI老炮儿深挖AGI前世今生

Resumen de Twitter Space | Veteranos de IA profundizan en el pasado y presente de la AGI

BroadChainBroadChain09/05/2023, 19:07
Este contenido ha sido traducido por IA
Resumen

El tema de la gobernanza de la IA es simplemente una extensión de la difusión generalizada de la tecnología de IA durante muchos años, no un tema nuevo.

El pasado 7 de mayo a las 11:00 (hora de Pekín), GPT DAO organizó en Twitter un Space titulado «Veteranos de la IA analizan el pasado y el futuro de la AGI». En este AMA, expertos con amplia experiencia en el campo de la inteligencia artificial analizaron en profundidad la evolución tecnológica de la AGI y debatieron su impacto en nuestras vidas y en el porvenir.

Junto con un panel de observación integrado por medios como GPT DAO, ChainDD, Feixiaohao y BroadChain Finance, también exploramos las implicaciones futuras de la tecnología de IA y los desafíos que plantea.

image.png

A continuación, presentamos a los participantes del Twitter Space:

Invitados:

Yang Ning: Inversor ángel, socio fundador de Lebo Capital y presidente fundador de la Asociación China de Inversores Ángel.

Chen Kui: Ex vicepresidente global de Citrix, ex ejecutivo del Grupo de Investigación y Desarrollo de Microsoft Asia-Pacífico, y ex directivo de Cisco y Computer Associates.

Bai Qiang: Miembro clave de GPT DAO, emprendedor e inversor con trayectoria desde Web1 hasta Web3. Licenciado en Matemáticas por la Universidad de Ciencia y Tecnología de China y en Estadística Matemática por la Universidad Purdue (EE.UU.). Ex responsable en iFLYTEK.

Moderadora:

Zoie: Miembro clave de GPT DAO, responsable del Sub DAO en Singapur y Venture Partner en LK Ventures.

Panel de observación de medios:

Cai Jijun (comoderador): Miembro clave y cofundador de Fast Global.

Da’erji: Subeditor jefe regional de ChainDD (zona de China Oriental).

Sun Yan: Editor jefe ejecutivo de Feixiaohao.

Wang Hui: Fundador de BroadChain Finance y promotor de 1783DAO.

Medios colaboradores:

Ti Media, ChainDD, Feixiaohao, Foresight News, BroadChain Finance.

A continuación, resumimos los puntos clave de este AMA para nuestros lectores.

P1: Recientemente, Geoffrey Hinton, director del Laboratorio de IA de Google y pionero de las redes neuronales, sorprendió al anunciar su retiro el 1 de mayo. Según los informes, su dimisión se debe a sus preocupaciones sobre la IA generativa: teme que los sistemas de IA se vuelvan cada vez más peligrosos. Sin una regulación adecuada, esta carrera no se detendrá, el desarrollo de la IA superará con creces nuestras expectativas y, finalmente, escapará a nuestro control. ¿Qué opinan al respecto?

Yang Ning:

Desde una perspectiva filosófica, creo que la naturaleza humana es intrínsecamente buena. Nuestros valores fundamentales y nuestra humanidad nos han permitido prosperar y convertirnos en una de las especies más avanzadas del planeta. Los datos de entrenamiento y el conocimiento que alimentan a los robots y a la IA provienen de los seres humanos; por lo tanto, confío en que la IA se desarrolla desde una base ética y positiva. Mientras las grandes corporaciones, los principales investigadores y los expertos en IA sean personas bienintencionadas, la IA que «eduquen» también lo será, al igual que nuestros hijos siguen los buenos principios que les transmitimos. Por consiguiente, considero que la IA no se descontrolará ni requerirá una regulación excesiva o normas éticas demasiado estrictas.

Moderadora Zoie:

Si partimos de que la naturaleza humana es buena, pero reconocemos que las redes neuronales de la IA no pueden analizarse lógica y completamente, ¿cómo podemos garantizar técnicamente que los robots de IA no causen daño? Además, ¿cómo puede la regulación responder al desarrollo acelerado de la IA? ¿Algún otro participante quiere añadir algo?

Bai Qiang:

En primer lugar, las teorías alarmistas difundidas por Elon Musk tienen sus motivaciones, y Biden utiliza este tema como capital político. Muchos defensores de la ética y la gobernanza de la IA también protegen, en cierto sentido, sus propios intereses. Hace años, en iFLYTEK, desarrollamos herramientas de voz basadas en IA. El debate sobre la gobernanza de la IA no es más que una extensión natural de la popularización de esta tecnología durante décadas, no es un tema nuevo. Ni siquiera entendemos completamente cómo funciona nuestro propio cerebro, por lo que es aún más imposible descifrar las redes neuronales de la IA. La pregunta de si la IA podría actuar mal es, en esencia, una afirmación que no puede refutarse. Desde el punto de vista regulatorio, los organismos suelen ir por detrás de los genios innovadores en el campo científico, por lo que la regulación tiende a caer en la paradoja de «si se regula, se frena el progreso; si no se regula, hay caos».

Yang Ning:

Si yo fuera una autoridad reguladora, también vería esto como un desafío enorme y extremadamente difícil. ¿Deberíamos regular a nivel de código técnico o a nivel de aplicaciones prácticas? Esta actitud contra la IA me recuerda, emocionalmente, al movimiento antivacunas en Estados Unidos. Si ni siquiera podemos comprender plenamente el cerebro humano, tampoco podemos predecir en qué escenarios una persona podría volverse loca o psicótica; por lo tanto, no hay razón para temer irracionalmente a la IA. Creo que, a medida que la gente se familiarice gradualmente con las ventajas que la IA aporta a la humanidad, la aceptará mejor y podrá convivir en armonía con ella.

Chen Kui:

Esta tendencia ya es imparable. Lo crucial es desarrollar conciencia sobre los riesgos, porque a medida que surjan nuevas capacidades en la IA, llegará un momento en que pierdan su controlabilidad e incluso podrían representar un peligro para la humanidad sin previo aviso. Antes de resolver los problemas regulatorios, primero debemos aceptar y comprender la IA, y reconocer las oportunidades que ofrece. Por eso, recomiendo centrarnos en explorar qué oportunidades puede brindarnos la IA y cómo podemos aprovecharlas en el futuro para mejorar nuestra calidad de vida.

P2: Midjourney es actualmente la herramienta de generación de imágenes AIGC más popular. ¿Cuál es su ventaja técnica frente a otras herramientas competidoras? ¿Cuál es el panorama futuro de las herramientas de generación de imágenes AIGC?

Bai Qiang:

Aunque las tecnologías actuales de generación de imágenes mediante IA varían —ya sea Midjourney u otras herramientas AIGC—, su verdadero éxito dependerá de cómo se utilicen para crear contenidos cautivadores. Un buen ejemplo es Pixar Animation Studios: fue fundada por George Lucas y luego adquirida por Steve Jobs. Inicialmente, Jobs la posicionó como una empresa de hardware, pero tras fracasar en ese ámbito, reorientó su enfoque hacia el software. En ese momento, John Lasseter se unió a Pixar y, gracias a su excepcional talento creativo, produjo un cortometraje animado por ordenador que ganó un Oscar. Este logro llevó a Jobs a reconsiderar la estrategia de la empresa, culminando en una asociación con Disney para producir películas como «Toy Story», lo que catapultó a Pixar como líder mundial en animación.

Al igual que Pixar logró transformarse —gracias al talento creativo de John Lasseter— de una empresa de hardware y software en dificultades a un estudio de animación líder, cualquier equipo o herramienta actual dedicado a la generación de contenido mediante IA deberá encontrar su propio punto de inflexión. Quien logre convertirse en la «Pixar de la era de la IA» alcanzará el éxito, mientras que las empresas centradas únicamente en herramientas corren el riesgo de quedarse atrás.

Moderadora Zoie: El equipo de Midjourney solo tiene 11 personas, pero sus ingresos anuales ya superan los 100 millones de dólares y su comunidad cuenta con 15 millones de usuarios. Con el avance continuo de la IA, me gustaría preguntar a Chen Kui, que ha sido ejecutivo en grandes tecnológicas: ¿qué cambios y tendencias prevé en la estructura organizativa de las empresas y en la gestión del talento a medida que la IA siga evolucionando?

Chen Kui:

Creo que los cambios en las empresas y el talento, así como la transformación industrial, son temas clave hoy en día. Antes de abordarlos directamente, me gustaría presentar brevemente el modelo evolutivo de «triple sistema» que mencionó Lu Qi. Este modelo abarca el sistema de información, el sistema de modelos y el sistema de acción. Estos tres sistemas se interrelacionan en el desarrollo de la inteligencia artificial (IA), impulsando conjuntamente el progreso tecnológico.

1. Sistema de información: Constituye la infraestructura de datos, encargada de recopilar, almacenar y procesar grandes volúmenes de información. Con la expansión de Internet y el Internet de las Cosas (IoT), estos sistemas se han vuelto más extensos y complejos. Proporcionan fuentes de datos esenciales para los algoritmos de aprendizaje automático y de IA, permitiendo extraer información valiosa.

2. Sistema de modelos: Es la herramienta analítica y predictiva basada en datos, como los algoritmos de aprendizaje automático y los modelos de IA. Estos sistemas utilizan los datos del sistema de información para aprender patrones mediante entrenamiento y optimización. A medida que aumenta la capacidad computacional y evolucionan los algoritmos, adquieren mayor habilidad para resolver problemas complejos, como el reconocimiento de imágenes, el procesamiento del lenguaje natural o los sistemas de recomendación.

3. Sistema de acción: Es el componente que convierte las predicciones y análisis del sistema de modelos en acciones concretas. Suele incluir dispositivos físicos ejecutores, como robots, vehículos autónomos o dispositivos para hogares inteligentes. Este sistema transforma las conclusiones del modelo en operaciones útiles, haciendo posible la aplicación práctica de la IA.

El modelo evolutivo de «triple sistema» subraya la interdependencia entre el sistema de información, el de modelos y el de acción. Este marco revela la fuerza motriz del desarrollo de la IA y el papel fundamental de estos sistemas en la innovación y su aplicación práctica. Al integrar los tres, podemos comprender y abordar con mayor eficacia los complejos desafíos actuales.

Actualmente nos encontramos en la fase del sistema de información. A medida que el sistema de modelos mejore sus capacidades de razonamiento y planificación, interactuaremos con el entorno para alcanzar objetivos humanos. En esta era digital, la forma en que los seres humanos obtenemos información, la procesamos y actuamos se asemeja cada vez más a la de los sistemas digitales. Tecnologías como el aprendizaje profundo y la computación en la nube ya han eliminado las brechas de coste y tecnología entre grandes empresas y pymes; los únicos factores competitivos que quedan son el talento, la creatividad y la capacidad de ejecución. Además, la colaboración entre grandes y pequeñas empresas también influye positivamente en el mercado. Por eso, pronostico que la computación en la nube y los grandes modelos de IA se convertirán en servicios omnipresentes, brindando enormes oportunidades a las empresas innovadoras más pequeñas. Esto impulsará a más jóvenes a emprender y a centrarse en implementar tecnologías de código abierto en el mercado. Soy bastante optimista respecto al futuro: los seres humanos y la IA coexistiremos durante mucho tiempo. Durante esta etapa, debemos aprender a comunicarnos y colaborar con la IA. En el futuro, muchas profesiones estarán vinculadas a la IA; aunque muchos trabajos rutinarios podrían desaparecer, también surgirán nuevas ocupaciones. En resumen, mantengo una actitud positiva ante la transformación industrial y la evolución profesional.

P3: Muchas gracias a todos los ponentes por sus aportaciones. Al comienzo de esta sesión hablamos sobre la regulación de la IA. Citamos una frase de George Soros: «La innovación siempre va por delante de la regulación», ya sea la innovación financiera que provocó la crisis global, la Web 3.0 o la IA. El rápido avance de la IA ha generado preocupación sobre si muchos trabajos serán reemplazados. También comentamos el caso de Midjourney, cuyo equipo solo tiene 11 personas, y las nuevas formas de organización empresarial. Nuestro tema de hoy es «El pasado y el futuro de la Inteligencia Artificial General (IAG)». Los invitamos a reflexionar juntos sobre la historia de la IA que hemos vivido y sobre nuestra visión de su futuro.

Yang Ning:

Desde mediados del siglo XX, cuando Alan Turing propuso su prueba y sentó las bases de la informática, comenzamos a distinguir la IA de la computación tradicional. Su desarrollo ha pasado por distintas etapas, con la evolución de métodos como las redes neuronales, el aprendizaje profundo y el aprendizaje por refuerzo. Las redes neuronales, que imitan la estructura del cerebro humano, han mejorado notablemente la capacidad de procesar y aprender de los datos, logrando avances en campos como el reconocimiento de imágenes, de voz y el procesamiento del lenguaje natural.

Posteriormente, el aprendizaje profundo —una rama de las redes neuronales— utiliza redes más profundas para manejar información numérica compleja, convirtiéndose en un área de gran interés. Por su parte, el aprendizaje por refuerzo, basado en prueba y error, permite a la IA interactuar con su entorno y con otros agentes para aprender a tomar las mejores decisiones. Este método ha dado resultados sorprendentes en juegos, como cuando el AlphaGo de DeepMind venció al campeón mundial de Go, demostrando el enorme potencial de la IA en estrategia. En los últimos años, la IAG se ha convertido en un foco prioritario. Su objetivo es crear máquinas con un nivel de inteligencia comparable al humano, capaces de interactuar de forma natural en diversos contextos. Al mismo tiempo, los grandes modelos lingüísticos preentrenados, como la serie GPT de OpenAI, han logrado avances significativos, mejorando la comprensión del lenguaje natural y sentando las bases para una comunicación más fluida entre la IA y las personas. En mi opinión, los seres humanos y la IA pueden coexistir y potenciarse mutuamente. Las aplicaciones de la IA ya abarcan sectores como la salud, la educación, las finanzas y el transporte, mejorando sustancialmente la productividad y la calidad de vida.

El desarrollo de la inteligencia humana está lejos de su potencial máximo: actualmente usamos una fracción mínima de nuestra capacidad cerebral. Si la IA logra estimular nuestro potencial cognitivo, podremos avanzar junto a ella, complementándonos. En el futuro, los seres humanos seremos más inteligentes y sabios, capaces de equipararnos a una IA cada vez más poderosa.

Bai Qiang:

Mi postura es más bien pesimista: el desarrollo de Internet y la IA no ha hecho al mundo mejor. Desde la perspectiva de Internet, la libre circulación de información no ha impedido la manipulación por parte de los más poderosos, sino que ha exacerbado la fragmentación social. La IAG enfrentará los mismos problemas: aunque el progreso tecnológico ha permitido que algunos alcancen mayor excelencia, la mayoría de las personas se vuelven más pasivas y menos críticas. Creo que esto ocurre porque, en una sociedad altamente desarrollada, el esfuerzo ya no es una necesidad, y la gente pierde agudeza mental. Sin duda, hay cuestiones más profundas: ¿con la llegada de la IAG, seremos aún más vulnerables? Es una pregunta que merece reflexión.

Chen Kui:

En cuanto a elegir entre optimismo y pesimismo, me sitúo en un punto intermedio. Por supuesto, en nuestro sector no debemos ignorar la historia, pues la experiencia pasada nos ayuda a enfrentar mejor los retos actuales y futuros. Y ya que hablamos del «pasado y el futuro», recordemos las tres leyes de la robótica de Isaac Asimov: primera, un robot no puede dañar a un ser humano ni, por inacción, permitir que sufra daño; segunda, debe obedecer las órdenes humanas, excepto si contradicen la primera ley; tercera, debe proteger su existencia, siempre que no entre en conflicto con la primera o segunda ley. Es una concepción muy idealizada, pero relevante para orientar el desarrollo de la IA.

Respecto a la aparición de la IAG, creo que tendrá un impacto profundo en la humanidad, cuyas consecuencias —positivas o negativas— aún son inciertas. No obstante, me alegra que OpenAI haya propuesto tres principios fundamentales:

1. Beneficio amplio: El objetivo es que la IAG impacte positivamente en la humanidad y garantizar que su desarrollo no perjudique a las personas ni concentre el poder.

2. Seguridad a largo plazo: Si, durante la investigación en IAG, otro proyecto resulta más prometedor para lograr una IAG segura, OpenAI colaborará con él en lugar de competir.

3. Liderazgo técnico: Para influir en la seguridad y los efectos sociales, OpenAI seguirá logrando avances importantes, asegurando así su peso en la investigación y aplicación de la IAG.

Estos principios permitirán que la humanidad florezca al máximo y garantizarán que los beneficios de la IAG se compartan ampliamente, ayudándonos a gestionar los riesgos. Aunque el futuro es incierto, creo firmemente que debemos mantener la esperanza, afrontar activamente los cambios y buscar oportunidades. Finalmente, debemos disfrutar plenamente de los momentos hermosos de la vida, hasta celebrar una última fiesta antes de nuestra desaparición.

Interacción con el Grupo de Observación Mediática

Sun Yan, Editor Jefe Ejecutivo de Feixiaohao:

No soy particularmente optimista ni pesimista sobre la IA; como mucha gente, siento cierta perplejidad ante ella. He probado plataformas como ChatGPT y Midjourney, pero no he notado una ayuda significativa, ni las uso en medios porque podría erosionar mi singularidad. Sinceramente, no siento de forma intensa la ayuda tangible que la IA o la IAG podrían ofrecerme. Como muestra la película «2001: Una odisea del espacio», las descripciones de entonces hoy no me impresionan tanto, pues la realidad es más prosaica y menos mágica de lo que imaginábamos. Por eso, actualmente no soy ni pesimista ni optimista, sino uno más entre la multitud.

Wang Hui, Fundador de BroadChain Finance y 1783DAO:

Tras escuchar a los ponentes, tengo una pregunta para el Sr. Yang. Desde la cultura oriental —por ejemplo, la idea confuciana de que «el hombre es bueno por naturaleza»— podríamos inferir que la IA también es intrínsecamente buena. Sin embargo, su desarrollo actual está siendo impulsado principalmente por gigantes occidentales. ¿Existe, en la cultura occidental, una tradición equivalente a esa noción? ¿Cómo será, desde esa óptica, el futuro de la relación entre la IA y la humanidad?

Yang Ning:

Su pregunta es excelente. Los seres humanos compartimos una naturaleza común: cualidades como la amabilidad, la cooperación y la empatía son similares independientemente de la cultura o el contexto. Por eso me opongo al concepto de «bosque oscuro» de «Los tres cuerpos», ya que los humanos no somos bestias, sino entidades con humanidad capaces de formar equipos y organizaciones. Al entrenar modelos de aprendizaje automático, los datos de alta calidad son fundamentales; su calidad y el etiquetado preciso determinan directamente la efectividad del modelo. Además, los desarrolladores de IA ejercen una influencia decisiva, pues la «humanidad» de las máquinas proviene, en última instancia, de las personas.

Wang Hui, Fundador de BroadChain Finance y 1783DAO:

Me surge otra pregunta para el Sr. Bai Qiang: usted comentó que muchas herramientas podrían desaparecer. ¿Significa eso que ChatGPT también desaparecerá? De ser así, ¿qué tipo de proyectos en el campo de la IA podrán perdurar a largo plazo?

Bai Qiang:

Creo que la base de OpenAI son sus modelos de lenguaje de gran escala (LLM), no solo productos como ChatGPT. Incluso si herramientas como ChatGPT desaparecieran, OpenAI conservaría su enorme volumen de datos como ventaja competitiva principal. La clave para que una empresa destaque es lograr transformarse en una compañía de contenidos para la nueva era de la IA General (AGI). Un buen ejemplo es Pixar, que evolucionó hasta convertirse en un estudio que produce contenidos de alta calidad, ganador de premios Oscar. Hoy debemos rediseñar modelos y productos desde la perspectiva de la IA, sin aferrarnos a los viejos esquemas. Hay que reflexionar sobre cómo definir cada aspecto en esta nueva era y buscar ahí las oportunidades de emprendimiento e inversión. Estoy convencido de que, con este enfoque, surgirán muchas más oportunidades en el futuro.

Da’erji, Subdirector Regional de ChainDD (Este de China):

Tengo una pregunta: ¿debería la prueba de Turing convertirse en el estándar para evaluar la AGI, o necesitamos otros criterios de prueba para valorarla adecuadamente?

Yang Ning:

Creo que el control de la AGI puede abordarse desde dos ángulos: evaluar el nivel de inteligencia de la máquina y evaluar su estado psicológico. Respecto al nivel de inteligencia, la clásica prueba de Turing ya está obsoleta; necesitamos nuevos métodos de evaluación, como pruebas de coeficiente intelectual (CI), para medir el grado de inteligencia de las máquinas. Sin embargo, estas pruebas deben diseñarse con cuidado para evitar que los desarrolladores las sobreentrenen específicamente. En cuanto al estado psicológico, considero necesario desarrollar baterías de pruebas similares a las de la psiquiatría humana para comprender mejor la mente de las máquinas. Ambas líneas de investigación son cruciales y rigurosas, y son áreas prioritarias para universidades e instituciones de investigación.

Da’erji, Subdirector Regional de ChainDD (Este de China):

Gracias, Sr. Yang. Otra pregunta relacionada con la ética de la IA: cuando delegamos funciones y responsabilidades sociales en la IA, ¿cómo garantizamos una gestión ética adecuada? Por ejemplo, en la conducción autónoma, los avances en IA pueden impulsar esta era, ofreciendo instrucciones complejas y multimodales. El reto está en cómo asegurar el cumplimiento de principios éticos mientras aprovechamos estas tecnologías. ¿Cómo debemos entrenar a los sistemas para ello?

Yang Ning:

Considero que la cuestión que plantea no es solo ética, sino fundamentalmente legal. Se trata principalmente de distinguir entre algoritmos deterministas y probabilísticos. Un algoritmo determinista garantiza que, ante una misma situación, la máquina siempre tomará la misma decisión. En cambio, los algoritmos de IA basados en distribuciones probabilísticas pueden tomar decisiones diferentes incluso bajo condiciones idénticas.

Precisamente por eso, actualmente ningún sistema de toma de decisiones basado en modelos probabilísticos está autorizado para su uso por IA a nivel global, debido a sus implicaciones legales. Por ejemplo, en un accidente de un vehículo autónomo, ¿quién asume la responsabilidad legal? Si hay un conductor en el vehículo, es el responsable; si el vehículo va vacío, la responsabilidad recae en la empresa que ofrece el servicio de conducción autónoma.

Hoy por hoy, aún no confiamos lo suficiente en la IA como para permitirle tomar decisiones que afecten directamente a la vida o causen daños graves. En el sector aeroespacial, las autoridades de aviación civil no autorizan a la IA para tales decisiones. Solo permiten que las decisiones las tomen personas o mediante procesos automatizados basados en algoritmos deterministas, es decir, aquellos que garantizan una salida idéntica para una entrada idéntica. Por eso, en nuestros proyectos actuales de vehículos aéreos no tripulados (UAV), utilizamos algoritmos deterministas, un requisito indispensable para obtener la aprobación de las autoridades de aviación civil.

Estos fueron los puntos más destacados de este Twitter Space. Esperamos que hayan obtenido información útil e inspiración valiosa. GPT DAO es la comunidad más técnica y rigurosa para compartir información sobre AGI, especializada en el intercambio profundo de conocimientos técnicos. ¡No se la pierdan!

¡Síganos en Twitter para estar al día de los próximos eventos!

Cuenta en chino: @GPTDAOCN

Cuenta en inglés: @GPTDAOGLOBAL