Twitter Space回顾 | AI老炮儿深挖AGI前世今生

Обзор Twitter Space | Ветераны ИИ подробно разбирают историю создания AGI

BroadChainBroadChain09.05.2023, 19:07
Этот контент переведен ИИ
Краткое содержание

Вопросы управления ИИ — это лишь продолжение многолетнего широкого распространения технологий ИИ и не являются новой темой.

7 мая 2023 года в 11:00 по пекинскому времени GPT DAO провела в Twitter Space дискуссию «Опытные специалисты по ИИ исследуют прошлое и настоящее AGI». В ходе этой AMA-сессии ведущие эксперты в области искусственного интеллекта глубоко проанализировали технологии AGI и обсудили влияние ИИ на нашу повседневную жизнь и будущее.

Кроме того, вместе с наблюдательной группой, в которую вошли представители GPT DAO, ChainDD, Feixiaohao и BroadChain Finance, мы обсудили влияние технологий искусственного интеллекта на будущее, а также связанные с этим вызовы и ��озможности.

image.png

Состав участников Twitter Space:

Участники:

Ян Нин: Ангельский инвестор, соучредитель фонда Lebo Capital, основатель и первый председатель Китайской ассоциации ангельских инвесторов.

Чэнь Куй: Бывший вице-президент Citrix по глобальным операциям, бывший руководитель исследовательского центра Microsoft в Азиатско-Тихоокеанском регионе, экс-топ-менеджер Cisco и Computer Associates.

Бай Цян: Ключевой член GPT DAO, предприниматель и инвестор, прошедший путь от Web1 к Web3. Выпускник математического факультета Университета науки и технологий Китая и факультета математической статистики Университета Пердью (США), бывший со-руководитель iFLYTEK.

Ведущая:

Цзои: Ключевой член GPT DAO, руководитель Sub DAO в Сингапуре, партнёр LK Ventures.

Наблюдательная группа СМИ:

Цай Цзюньцзюнь (со-ведущий): Ключевой член, соучредитель Fast Global.

Даэрцзи: Заместитель главного редактора восточного региона ChainDD.

Сунь Янь: Исполнительный главный редактор Feixiaohao.

Ван Хуэй: Основатель BroadChain Finance, инициатор 1783DAO.

Поддерживающие медиа:

Ti Media, ChainDD, Feixiaohao, Foresight News, BroadChain Finance.

Для наших читателей мы подготовили краткий обзор ключевых моментов этой AMA-сессии.

Вопрос 1: Недавно Джеффри Хинтон (Geoffrey Hinton), директор лаборатории Google AI и пионер в области нейронных сетей, неожиданно объявил об уходе 1 мая. По сообщениям, причиной стало беспокойство по поводу генеративного ИИ: он опасается, что системы ИИ становятся всё опаснее, и без регулирования эта гонка не прекратится; темпы развития ИИ превзойдут наши самые смелые ожидания и в итоге выйдут из-под контроля. Как вы относитесь к этой проблеме?

Ян Нин:

С философской точки зрения, человеческая природа изначально добра. Именно основные ценности и внутренняя сущность человека позволили нам стать одной из самых развитых рас на Земле. Данные и знания, на которых обучаются роботы и системы ИИ, предоставляются людьми, поэтому я верю, что ИИ развивается из добрых побуждений. Пока ведущие компании, авторы и эксперты в области ИИ остаются добрыми людьми, обучаемый ими ИИ тоже будет добрым — подобно детям, которые следуют хорошим принципам, которым их учат. Поэтому я считаю, что ИИ не выйдет из-под контроля, и чрезмерное регулирование или этические нормы не потребуются.

Ведущая Цзои:

Если человеческая природа изначально добра, а нейронные сети ИИ невозможно полностью логически проанализировать, то как технически гарантировать, что ИИ-роботы не будут совершать злонамеренные действия? Как регуляторы будут реагировать на развитие ИИ? Есть ли у других участников дополнительные комментарии?

Бай Цян:

Во-первых, теории страха, распространяемые Илоном Маском, преследуют личные цели, а президент Байден использует эту тему как политический капитал; многие другие сторонники этики и управления ИИ также защищают собственные интересы. Ещё много лет назад, когда мы работали над инструментами ИИ для распознавания речи в iFLYTEK, вопросы управления ИИ (AI Governance) уже были частью широкого внедрения технологий и не являются новой темой. Мы сами до сих пор не можем полностью понять, как работает человеческий мозг, поэтому ещё сложнее разобраться в нейронных сетях ИИ. Вопрос о том, может ли ИИ совершить злонамеренные действия, принципиально не поддаётся опровержению. Что касается регулирования, регуляторы, как правило, отстают от талантливых учёных и инноваторов, поэтому регулирование часто приводит либо к полному «затуханию» отрасли, либо к хаосу при его отсутствии.

Ян Нин:

Если бы мне пришлось выступить в роли регулятора, я бы тоже ощутил огромную сложность и затруднился с выбором подхода. Следует ли регулировать на уровне исходного кода или на уровне применения? Такие настроения против ИИ напоминают мне антивакцинную кампанию в США. Если мы не можем полностью понять, как работает человеческий мозг, и не можем определить, в каких ситуациях человек может сойти с ума, то нет оснований безосновательно бояться ИИ. Думаю, по мере того как люди привыкнут к удобствам, которые предоставляет ИИ, они станут более терпимыми и примут сосуществование человека и ИИ.

Чэнь Куй:

Эта тенденция уже неизбежна. Главное — осознавать потенциальные риски, поскольку по мере появления новых возможностей ИИ возникает вопрос: когда именно он потеряет управляемость и даже станет опасным для людей без предупреждения? Прежде чем решать вопросы регулирования, нам необходимо принять и понять ИИ, а также увидеть открывающиеся возможности. Поэтому я рекомендую сосредоточиться на обсуждении тех возможностей, которые ИИ нам предоставляет, и на том, как мы сможем использовать их для улучшения жизни в будущем.

Вопрос 2: Midjourney — самый популярный на сегодня инструмент AIGC для генерации изображений. В чём его технологические преимущества перед конкурентами? Каковы перспективы развития подобных инструментов?

Бай Цян:

Современные технологии генерации изображений с помощью ИИ различаются, но успех таких инструментов, как Midjourney, зависит от того, насколько эффективно они используются для создания захватывающего контента. В качестве примера можно привести Pixar Animation Studios. Её основал Джордж Лукас, а затем приобрел Стив Джобс. Изначально Джобс позиционировал компанию как производителя аппаратного обеспечения, но после неудачи акцент сместился на программное обеспечение. Именно в этот период в Pixar пришёл Джон Лассетер, чьё выдающееся мастерство в создании контента позволило выпустить короткометражный компьютерный анимационный фильм, удостоенный «Оскара». Этот успех заставил Джобса пересмотреть стратегию, что в итоге привело к сотрудничеству с Disney, созданию таких культовых фильмов, как «История игрушек», и превращению Pixar в мирового лидера анимации.

Точно так же, как Pixar благодаря таланту Джона Лассетера смогла преобразоваться из компании, испытывающей трудности с «железом» и софтом, в лидера анимации, любая современная команда или инструмент для генерации контента с помощью ИИ должен найти свой прорыв. Компания, которая станет «Pixar эпохи ИИ», добьётся успеха, тогда как чисто инструментальные решения в конечном счёте могут быть вытеснены.

Ведущая Цзои: В команде Midjourney всего 11 человек, годовой доход уже превышает 100 миллионов долларов, а аудитория сообщества достигла 15 миллионов пользователей. Учитывая стремительное развитие ИИ, я хочу задать вопрос Чэнь Кую, который работал в крупных технологических гигантах: как, по вашему мнению, развитие ИИ повлияет на организационную структуру компаний и формирование кадров в будущем?

Чэнь Куй:

На мой взгляд, ключевые темы нашего времени — это изменения в компаниях, кадрах и трансформация отраслей. Прежде чем перейти к ним, я вкратце опишу эволюционную модель «трёхединства», о которой говорил Лу Ци. Она включает информационную, модельную и исполнительную системы. Эти три компонента взаимосвязаны и вместе двигают вперёд технологии искусственного интеллекта.

1. Информационная система: это инфраструктура для работы с данными, которая собирает, хранит и обрабатывает огромные массивы информации. С распространением интернета и Интернета вещей (IoT) информационные системы становятся масштабнее и сложнее. Они снабжают алгоритмы машинного обучения и ИИ богатым потоком данных, позволяя извлекать из них ценную информацию.

2. Модельная система: это инструмент для анализа и прогнозирования на основе данных, например, алгоритмы машинного обучения и модели ИИ. Такие системы используют данные из информационной системы, обучаются на них и выявляют закономерности. С ростом вычислительных мощностей и развитием алгоритмов модельные системы всё лучше справляются со сложными задачами — распознаванием изображений, обработкой естественного языка, построением рекомендательных систем.

3. Исполнительная система: этот компонент превращает результаты анализа модельной системы в конкретные действия. Обычно сюда входят аппаратные устройства: роботы, беспилотные автомобили, умные бытовые приборы. Исполнительная система переводит выводы моделей в практические операции, реализуя тем самым применение ИИ в реальном мире.

Модель «трёхединства» подчёркивает взаимосвязь всех трёх систем. Она показывает, что движет развитием ИИ и какую роль каждая система играет в технологических прорывах и их внедрении. Используя их в комплексе, мы можем глубже понимать и эффективнее решать сложнейшие проблемы современности.

Сейчас мы находимся на этапе развития информационных систем. По мере того как модельные системы будут лучше справляться с логическим выводом и планированием, ИИ станет активнее взаимодействовать с окружающей средой для достижения человеческих целей. В цифровую эпоху то, как человек получает информацию, выражает её и действует для удовлетворения своих потребностей, всё больше напоминает работу цифровых систем. Технологии глубокого обучения и облачные вычисления уже стёрли различия в затратах и технологическом уровне между крупными и малыми компаниями. Остаётся конкуренция за таланты, креативность и исполнительскую дисциплину. Сотрудничество больших и малых фирм положительно влияет на рынок. Поэтому я считаю, что облачные вычисления и большие ИИ-модели станут общедоступными сервисами, открывая перед инновационными стартапами огромные возможности. Это побудит больше молодых людей создавать свои компании и сосредотачиваться на практическом применении открытых технологий. Я оптимистично смотрю в будущее: человечество и ИИ будут долго сосуществовать. На этом этапе нам нужно научиться взаимодействовать с ИИ и работать с ним в тандеме. В будущем многие профессии будут тесно связаны с ИИ: хотя некоторые рутинные должности исчезнут, появятся и новые. В целом, я позитивно оцениваю грядущие отраслевые трансформации и карьерные перспективы.

Вопрос 3: Большое спасибо всем спикерам. В начале мы затронули тему регулирования ИИ. Приведу слова Джорджа Сороса: «Инновации всегда опережают регулирование» — будь то финансовые инновации, вызвавшие мировой кризис, инновации Web 3.0 или ИИ. Бурное развитие ИИ вызывает опасения, что многие рабочие места окажутся под угрозой. Мы уже говорили о команде Midjourney из 11 человек и новых формах организации компаний. Сегодняшняя тема — «Прошлое и будущее ИИ общего назначения (AGI)». Давайте обсудим и тот ИИ, который мы уже пережили, и тот, который только представляем.

Ян Нин:

С середины XX века, когда Алан Тьюринг сформулировал свой тест и заложил основы компьютерных наук, люди начали понимать принципиальное отличие ИИ от обычных компьютеров. Развитие ИИ прошло через разные этапы: эволюцию нейронных сетей, глубокое обучение, обучение с подкреплением. Нейронные сети, имитирующие структуру мозга, значительно повысили способность систем обрабатывать данные и обучаться. Это позволило совершить прорывы в распознавании изображений, речи и обработке естественного языка.

Затем глубокое обучение — часть нейронных сетей — стало популярной темой исследований благодаря использованию более сложных архитектур для обработки данных. Обучение с подкреплением — это метод проб и ошибок, где ИИ взаимодействует со средой, чтобы научиться принимать оптимальные решения. Этот подход показал выдающиеся результаты в играх: например, AlphaGo от DeepMind обыграла чемпиона мира по го, продемонстрировав огромный потенциал ИИ в стратегическом мышлении. В последнее время внимание приковано к ИИ общего назначения (AGI). Его цель — создать машины с интеллектом, сопоставимым с человеческим, способные естественно взаимодействовать с людьми в разных ситуациях. Одновременно большие языковые модели, такие как GPT от OpenAI, показывают значительный прогресс в понимании естественного языка, закладывая основу для более глубокого взаимодействия. На мой взгляд, человек и ИИ могут сосуществовать и дополнять друг друга. ИИ уже применяется в медицине, образовании, финансах, транспорте, повышая производительность и качество жизни.

Потенциал человеческого интеллекта ещё далеко не исчерпан: мы используем лишь малую часть возможностей мозга. Если ИИ поможет раскрыть этот скрытый потенциал, мы сможем развиваться вместе, дополняя друг друга. В будущем люди станут умнее и мудрее, чтобы соответствовать всё более мощным системам ИИ.

Бай Цян:

Я придерживаюсь более пессимистичного взгляда: развитие интернета и ИИ не сделало мир лучше. Свободный поток информации не помешал доминированию сильных игроков, а скорее усилил раскол в обществе. То же произойдёт и с AGI: хотя технологический прогресс делает некоторых людей успешнее, большинство становится пассивнее. В высокоразвитом обществе люди перестают прилагать усилия и теряют умственные способности. Здесь кроется более глубокая проблема: с приходом AGI не станем ли мы ещё более уязвимыми? Это вопрос, заслуживающий серьёзного размышления.

Чэнь Куй:

Выбирая между оптимизмом и пессимизмом, я занимаю промежуточную позицию. Разумеется, в нашей отрасли нельзя игнорировать историю — прошлый опыт помогает справляться с современными и будущими вызовами. Поскольку речь идёт о «прошлом и будущем», вспомним три закона робототехники Айзека Азимова: первый — робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред; второй — робот должен повиноваться приказам человека, если они не противоречат первому закону; третий — робот должен защищать своё существование, если это не противоречит первому или второму закону. Это идеализированная концепция, но она важна для понимания путей развития ИИ.

Появление AGI окажет огромное влияние на человечество, но его характер пока неясен. Меня радует, что OpenAI сформулировала три принципа.

1. Широкая польза: цель — обеспечить, чтобы AGI приносил пользу человечеству, не причинял вреда и не приводил к концентрации власти.

2. Долгосрочная безопасность: если другие проекты будут ближе к созданию безопасного AGI, OpenAI будет сотрудничать с ними, а не конкурировать.

3. Технологическое лидерство: чтобы влиять на вопросы безопасности, OpenAI продолжит добиваться прорывов в исследованиях и применении AGI.

Эти принципы помогут максимизировать процветание человечества, гарантировать широкое распространение выгод от AGI и справиться с рисками. Хотя будущее неопределённо, я верю, что нужно сохранять надежду, адаптироваться к переменам и искать новые возможности. В завершение — давайте наслаждаться прекрасными моментами жизни, пока не наступит наш последний праздник.

Взаимодействие с медианаблюдателями

Сунь Янь, главный редактор Feixiaohao:

Я не испытываю ни особого оптимизма, ни пессимизма по поводу ИИ — скорее, как и многие, чувствую некое неведение. Я пробовал такие платформы, как ChatGPT и Midjourney, но не ощутил от них заметной пользы и не использую их в работе, чтобы не потерять индивидуальность. Мне не кажется, что ИИ или AGI мне чем-то помогают. Как и с фильмом «Космическая одиссея 2001», описанное там будущее сегодня не впечатляет — реальность часто оказывается «тощей» и менее волшебной, чем мы представляли. Поэтому я не пессимист и не оптимист — просто обычный человек.

Ван Хуэй, основатель BroadChain Finance и 1783DAO:

После выступлений у меня есть вопрос к господину Яну. С точки зрения восточной культуры, например, учения «человек рождается добрым», можно предположить, что ИИ тоже изначально добр. Но сегодня развитие ИИ контролируют западные технологические гиганты. Существует ли в западной культуре аналогичное понятие? Как с западной точки зрения видятся будущие отношения ИИ и человека?

Ян Нин:

Отличный вопрос. У человечества есть общие черты — дружелюбие, стремление к сотрудничеству, эмпатия — вне зависимости от культуры. Поэтому я против концепции «тёмного леса» из «Трёхтел��я»: человек — не зверь, а существо, способное создавать команды и организации. При обучении ИИ решающую роль играет качество данных, а точность разметки напрямую влияет на результат. Кроме того, разработчики сильно влияют на поведение ИИ, ведь «человечность» машин исходит от самих людей.

Ван Хуэй, основатель BroadChain Finance и 1783DAO:

У меня есть ещё один вопрос к господину Бай Цяну. Вы говорили, что многие инструментальные продукты могут исчезнуть. Значит ли это, что и ChatGPT ждёт та же участь? Если да, то какие проекты в сфере ИИ окажутся жизнеспособными в долгосрочной перспективе?

Бай Цян:

На мой взгляд, основа OpenAI — это её большие языковые модели (LLM), а не просто такие продукты, как ChatGPT. Даже если конкретные инструменты устареют, у OpenAI останется её главный актив — огромный массив данных. Ключевой фактор, который позволит компании выделиться, — это способность трансформироваться в компанию, создающую контент для новой эры общего искусственного интеллекта (AGI). Яркий пример — Pixar, которая стала производителем высококачественного контента и завоевала «Оскары». Сегодня нам нужно заново осмыслить бизнес-модели и продукты с точки зрения ИИ, а не цепляться за устаревшие подходы. Важно понять, как переопределить различные аспекты в этой новой эпохе и где искать возможности для стартапов и инвестиций. Уверен, что с таким подходом откроется ещё больше перспектив.

Даэрцзи, заместитель главного редактора восточного региона ChainDD (Linkder):

У меня вопрос: стоит ли использовать тест Тьюринга в качестве стандарта для оценки общего искусственного интеллекта (AGI), или нужны другие критерии?

Ян Нин:

Я считаю, что оценивать уровень ИИ нужно по двум направлениям: проверка интеллекта и проверка «психологического» состояния. Что касается интеллекта, классический тест Тьюринга уже устарел. Нужны новые методы оценки, например, аналоги IQ-тестов для количественного измерения уровня машинного интеллекта. Но такие тесты должны быть защищены от чрезмерной «натаскивания» моделей под конкретные задания. Для оценки «психологического» состояния ИИ, на мой взгляд, нужны специализированные тесты, похожие на человеческие психометрические, чтобы лучше понимать его внутренние процессы. Оба направления крайне важны, и именно ими должны заниматься университеты и научные институты.

Даэрцзи, заместитель главного редактора восточного региона ChainDD (Linkder):

Спасибо за подробный ответ. Ещё один вопрос — об этике ИИ. Когда мы передаём ИИ часть социальных функций и ответственности, как правильно решать этические дилеммы? Например, в сфере автономного вождения прогресс ИИ открывает новые горизонты, но и создаёт сложные задачи, связанные с обработкой многомодальных данных. Как обеспечить соблюдение этических норм при использовании ИИ? Как нужно обучать системы в этом направлении?

Ян Нин:

На мой взгляд, этот вопрос лежит не только в этической, но и в юридической плоскости. Всё упирается в разницу между детерминированными и вероятностными алгоритмами. Детерминированный алгоритм гарантирует, что при одинаковых условиях машина всегда примет одно и то же решение. Алгоритмы на основе ИИ, как правило, вероятностные — при одинаковых входных данных результат может быть разным.

Именно поэтому сегодня в мире не разрешают использовать ИИ на вероятностных моделях для принятия решений — это вопрос юридической ответственности. Например, в случае аварии беспилотного автомобиля кто будет отвечать? Если в машине есть водитель, ответственность на нём. Если автомобиль полностью автономный и людей в нём нет, ответственность ляжет на компанию, предоставляющую услугу.

Сейчас уровень доверия к ИИ недостаточен, чтобы позволить ему принимать решения, влияющие на жизнь, здоровье или способные нанести значительный ущерб. В авиации, например, Федеральное управление гражданской авиации (FAA) не разрешает ИИ принимать такие решения. Допускаются только решения человека или автоматизированные процессы на основе детерминированных алгоритмов, которые гарантируют одинаковый результат при одинаковых входных данных. Поэтому в наших текущих проектах с беспилотными летательными аппаратами мы используем именно детерминированные алгоритмы — только так можно получить одобрение FAA.

Это были ключевые моменты состоявшегося Twitter Space. Надеемся, вы нашли для себя полезную информацию и пищу для размышлений. GPT DAO — это технически продвинутое сообщество для обмена знаниями об общем искусственном интеллекте (AGI), где ценят глубину и техническую насыщенность контента. Не упустите возможность стать его частью!

Подписывайтесь на Twitter GPTDAO, чтобы быть в курсе последних новостей и мероприятий.

Китайский Twitter: @GPTDAOCN

Английский Twitter: @GPTDAOGLOBAL