Вскоре появятся чипы, обладающие функционалом искусственного интеллекта
Centr86.ru

Ремонт бытовой техники

Вскоре появятся чипы, обладающие функционалом искусственного интеллекта

Вскоре появятся чипы, обладающие функционалом искусственного интеллекта

Новый чип может изменить будущее искусственного интеллекта

Не так давно, ясным утром в Палм-Спрингс, штат Калифорния, Вивьен Се вышла на небольшую сцену, чтобы провести, пожалуй, самую нервную презентацию в своей карьере. Тема была известна ей насквозь. Она должна была рассказать аудитории о чипах, которые разрабатывались в ее лаборатории в MIT и которые обещают принести мощный искусственный интеллект на множество устройств с ограниченным электропитанием. Известно, что большая часть вычислительных задач силами искусственного интеллекта сегодня проводился в огромных дата-центрах. Тем не менее, событие — и аудитория — заставили Се задуматься.

Не самый маленький чип, но и потенциал у него намного выше!

Искусственный интеллект на чипе

MARS — место проведения — представляет собой элитную конференцию, попасть на которую можно только по приглашению. Роботы перекатываются (или летают) по роскошному курорту, известные ученые общаются с писателями-фантастами. Очень немногие ученые приглашаются для технических докладов, и эти сессии должны быть и вдохновляющими, и поучительными. Между тем, народу собралось — около сотни известнейших исследователей, директоров и предпринимателей мира. MARS проводит не кто иной как основатель и председатель совета директоров Amazon, Джефф Безос. Он сидел в первом ряду.

«Аудитория, можно так сказать, была довольно высокого уровня», вспоминает Се со смехом.

Выступающие на MARS представили роботов-каратистов, дронов-насекомых и даже оптимистичные чертежи для марсианских колоний. Чипы Се могли показаться относительно скромными; невооруженный глаз не отличил бы их от чипов, которые имеются в любом электронном устройстве. Однако они — возможно — были намного важнее всего остального, что показали на мероприятии.

Новые возможности искусственного интеллекта

Вивьен Се собственной персоной

Новейшие разработки в области чипов — вроде тех, которые разрабатывались в лаборатории Се — могут иметь решающее значение для будущего прогресса искусственного интеллекта (ИИ), включая области тех же дронов и роботов, которые были на MARS. До недавних пор ПО для ИИ полагалось по большей части на графические чипы, но новое оборудование может сделать алгоритмы ИИ более мощными, что откроет новые применения. Новые чипы для ИИ могли бы сделать роботов-кладовщиков более повсеместными или позволить смартфонам создавать фотореалистичный пейзаж с дополненной реальностью.

Чипы Се одновременно и чрезвычайно эффективны, и гибкие в своем дизайне, что важно для области, которая стремительно развивается.

Эти микрочипы предназначены для того, чтобы выжимать больше из алгоритмов «глубокого обучения» ИИ, которые и без того перевернули мир с ног на голову. И в процессе этого они могут вдохновить сами алгоритмы на эволюцию. «Нам нужно новое аппаратное обеспечение, потому что закон Мура замедлился», говорит Се, имея в виду аксиому, введенную соучредителем Intel Гордоном Муром, который предсказал, что число транзисторов на чипе будет удваиваться примерно каждые 18 месяцев.

Сейчас этот закон все сильнее упирается в физические ограничения, связанные с инженерными компонентами в атомных масштабах. И это стимулирует новый интерес к альтернативным архитектурам и подходам к вычислениям.

Высокие ставки, связанные с инвестициями в чипы ИИ следующего поколения и сохранением доминирующего положения Америки в производстве чипов в целом, очевидны для правительства США. Микрочипы Се разрабатываются при поддержке программы DARPA по разработке новых конструкций микрочипов для искусственного интеллекта. И, конечно, эта программа создавалась на фоне стремительного развития Китая в этой же области.

Но инновации в производстве микрочипов стимулировались в основном за счет развития глубокого обучения, очень мощного способа обучения машин выполнению полезных задач. Вместо того, чтобы давать компьютеру набор правил, которым нужно следовать, машина по сути программирует себя сама. Обучающие данные подаются в большую имитируемую искусственную нейронную сеть, которая затем настраивается таким образом, чтобы получить желаемый результат. При достаточной тренировке система глубокого обучения может находить незаметные и абстрактные закономерности в данных. Этот метод применяется для растущего числа практических задач, от распознавания лиц на смартфонах до прогнозирования заболеваний по медицинским снимкам.

Новая гонка технологий чипов

Пока серьезные чипы будущего используются в основнов в незначительных гаджетах, но скоро все изменится.

Глубокое обучение не особо зависит от закона Мура. Нейронные сети выполняют много математических вычислений параллельно, поэтому они гораздо эффективнее работают на специализированных графических чипах для видеоигр, которые производят параллельные вычисления для визуализации трехмерных изображений. Но микрочипы, разработанные специально для вычислений, лежащих в основе глубокого обучения, должны быть еще более мощными.

Потенциал новых архитектур микросхем для улучшения искусственного интеллекта поднял уровень предпринимательской активности, которого индустрия микросхем не видела десятилетиями.

Крупные технологические компании, которые надеются использовать и коммерциализировать ИИ — включая Google, Microsoft и Amazon — работают над своими собственными чипами глубокого обучения. Многие компании поменьше также разрабатывают новые чипы. «Невозможно уследить за всеми компаниями, которые прыгают в эту гонку за чипы ИИ», говорит Майк Делмер, аналитик микрочипов из Linley Group, аналитической компании. «Я не шучу: мы узнаем по крайней мере об одной каждую неделю».

Реальная возможность состоит не в том, чтобы построить самые мощные чипы глубокого обучения, считает Се. Важна эффективность энергопотребления, поскольку ИИ также нужно работать за пределами крупных дата-центров, полагаясь при этом лишь на энергию, доступную в батарее устройства.

«ИИ будет всюду — и выяснить, как сделать все это энергоэффективным, будет чрезвычайно важно», говорит Навин Рао, вице-президент по продуктам искусственного интеллекта в Intel.

Аппаратное обеспечение Се, к примеру, более эффективно потому, что оно физически уменьшает проблему того, где данные хранить и где анализировать, а также использует умные схемы для повторного использования данных. Перед тем, как присоединиться к MIT, Се впервые применила этот подход для повышения эффективности сжатия видео в Texas Instruments.

В такой быстроразвивающейся области, как глубокое обучение, задача тех, кто работает над чипами для ИИ, состоит в том, чтобы убедиться, что они достаточно гибкие, чтобы их можно было адаптировать под работу с любым приложением. Можно легко спроектировать суперэффективный чип, способный делать только одно, но такой продукт быстро устареет.

Чип Се называется Eyeriss. Разработанный в сотрудничестве с Джоэлем Эмером, научным сотрудником Nvidia и профессором MIT, чип был протестирован с рядом стандартных процессоров, чтобы увидеть, как он обрабатывает ряд различных алгоритмов глубокого обучения. Согласно статье, опубликованной в прошлом году, благодаря совмещению эффективности с гибкостью, новый чип достигает производительности в 10 или даже 1000 раз большей, чем существующее оборудование.

Более простые чипы ИИ уже оказывают существенное влияние. Высококачественные смартфоны уже включают чипы, оптимизированные для запуска алгоритмов глубокого обучения для распознавания изображений и голоса. Более эффективные чипы могли бы позволить этим устройствам обрабатывать более мощный код ИИ с лучшими способностями. Самоуправляемые автомобили нуждаются в мощных компьютерных чипах, поскольку большинство нынешних прототипов полагаются на гору компьютеров.

Рао говорит, что чипы MIT многообещающие, но успех новой аппаратной архитектуры будет определяться многими факторами. Один из наиболее важных факторов, по его словам, это разработка программного обеспечения, которое позволяет программистам запускать на нем код. «Создание чего-то полезного с точки зрения компилятора — это, пожалуй, самое большое препятствие для одобрения», говорит он.

Лаборатори Се также исследует и возможности создания программного обеспечения, которое будет лучше задействовать свойства существующих компьютерных чипов. И эта работа выходит за рамки просто глубокого обучения.

Читать еще:  Использование компрессора и другого оборудования для промывки систем отопления

Вместе с Сертаком Караманом из отделения аэронавтики и астронавтики Массачусетского технологического института Се разработала маломощный чип Navion, который невероятно эффективно осуществляет трехмерное картирование и навигацию для крошечного дрона. Navion показывает, что программное обеспечение в области ИИ (глубокое обучение) и аппаратное (чипы) начинают эволюционировать совместно, в симбиозе.

Чипы Се, возможно, не так привлекают внимание, как машущие дроны, но тот факт, что их показали на MARS, говорит о важности ее технологий для будущего ИИ. Возможно, уже на следующей конференции MARS роботы и дроны будут с чем-нибудь новеньким внутри.

Как думаете, когда нас ждет взрывной рост искусственного интеллекта? Давайте обсудим в нашем чате в Телеграме.

Разработаны нейроморфные чипы – ключевая часть искусственного интеллекта

«Схемы подключения нейроморфных чипов напоминают работу мозга млекопитающих»

24.07.2013 в 13:24, просмотров: 3460

Швейцарским учёным из университета Цюриха совместно с учёными высшей технической школы Цюриха, а также коллегами из США и Европы удалось создать нейроморфные чипы (не имеет отношения к некроморфам), которые, будучи соединены в сеть, способны имитировать некоторые когнитивные процессы человеческого мозга.

Искусственным интеллектом время от времени в шутку с небольшой долей правды называют как голосовые помощники, например Siri в iPhone, так и мощные вычислительные системы современности (суперкомпьютеры). Правда, как первое, так и другое уж очень сильно зависит от людей. Напомним, что суперкомпьютер IBM Watson еще в 2011 году был признан победителем в интеллектуальной телевизионной игре-викторине Jeopardy.

Буквально на днях сообщалось, что созданный исследователями Массачусетского технологического института искусственный интеллект ConceptNet 4 обладает мышлением четырехлетнего ребенка.

И вот теперь швейцарские исследователи из университета Цюриха совместно с исследователями высшей технической школы Цюриха решили совместно попытать счастье на данном научно-технологическом поприще. Им удалось создать нейроморфные чипы, которым при условии соединения в сеть под силу имитировать некоторые когнитивные процессы человеческого мозга, передает hi-news.ru .

Большинство ученых в области нейроинформатики используют старые методы и подходы в попытках усовершенствования различных моделей нейронных сетей на обычных компьютерах или моделирования сложных нейронных сетей посредством суперкомпьютеров.

Конечной же целью швейцарских исследователей является разработка электронных схем, которые сопоставимы с человеческим мозгом по всем параметрам (размер, скорость, энергопотребление), отмечает mediadesk.uzh.ch .

«Наша цель – эмулировать свойства биологических нейронов и синапсов при помощи электронных микросхем», — сказал Джакомо Индивери, профессор университета Цюриха и высшей технической школы Цюриха.

Созданному учеными искусственному интеллекту под силу выполнять довольно сложные задачи, которые требуют наличия кратковременной памяти и принятия контекстно-зависимых решений — типичные черты, необходимые для когнитивных тестов.

«Схемы подключения нейроморфных чипов напоминают работу мозга млекопитающих», — сказал Индивери.

Такие нейроморфные чипы могут хранить множество моделей поведения, заданных пользователем. В обозримом будущем данные чипы могут быть объединены с другими сенсорными нейроморфными компонентами, например бионическим глазом, с целью создания сложных когнитивных систем, взаимодействующих с окружающей средой в реальном времени.

Существует мнение, что создать искусственный интеллект, используя современные технологии и электронные микросхемы на базе кремния, невозможно. Большие надежды здесь возлагаются на квантовую электронику, которая практически бесполезна на данном этапе технического развития.

Вскоре появятся чипы, обладающие функционалом искусственного интеллекта

Чипы разума: в России создана энергоэффективная нейросеть

Российские ученые нашли способ снизить энергопотребление мобильных устройств (телефонов, планшетов и т.д.), повысить их производительность и избавить от излишнего нагрева. В основе разработки — искусственный нейрон, который будет использовать наиболее простые математические вычисления. Предполагается, что производство процессоров, функционирующих по такой технологии, будет запущено через пять лет. Их проектирование ведется в рамках концепции зеленого искусственного интеллекта, реализация которой позволит снизить вредные выбросы в атмосферу.

Всё сложится

Активное внедрение технологий искусственного интеллекта (ИИ) приводит к постоянному увеличению мощности процессоров, работа которых требует значительных затрат энергии. Таким образом, прогресс в данной области имеет и отрицательную сторону, заставляя человечество сжигать большее количество углеводородного топлива, с помощью которого в мире вырабатывается львиная доля электричества. В конечном итоге это ведет к загрязнению атмосферы вредными выбросами. Но нельзя не учитывать и того, что активное выделение тепла мощными электронными системами становится серьезным барьером для их дальнейшего совершенствования.

Однако ученые не считают это поводом, чтобы остановить развитие, и стараются найти способы радикального увеличения энергоэффективности нейросетевых технологий. Один из интересных подходов к решению задачи в рамках концепции зеленого искусственного интеллекта недавно предложил коллектив российских ученых из Института проблем передачи информации им. А.А. Харкевича РАН и Федерального исследовательского центра «Информатика и управление» РАН под руководством к.ф-м.н. Д.П. Николаева и к.т.н. В.В. Арлазарова.

— Упростить анализ информации можно путем замены стандартной модели искусственного нейрона, использующего в процессе обработки информации умножение, морфологическим биполярным нейроном, деятельность которого основана на более простой операции сложения (то есть переходом от классической к тропической алгебре), — рассказал руководитель лаборатории зрительных систем Института проблем передачи информации РАН Дмитрий Николаев. — Использование нейрона данного типа требует меньшего количества транзисторов. Благодаря этому его энергопотребление при выполнении аналогичных задач будет значительно ниже.

Однако, прежде чем внедрить данное решение, ученым необходимо, во-первых, написать оригинальные алгоритмы обучения нейросетей, а во-вторых, создать электронные элементы, оптимизированные под работу с новой системой ИИ.

— Если с первой задачей мы практически справились, то ко второй — созданию специальных процессоров — нам только предстоит приступить. Поэтому тестирование наших нейросетей мы пока будем проводить на стандартной технике, — пояснил Дмитрий Николаев.

По словам ученого, испытания будут завершены через год. Специалисты надеются получить небольшое превосходство над существующими системами ИИ по показателям экономичности и скорости работы.

Выйти из облака

Развить успех технологии должны помочь новые сопроцессоры типа Neural Processing Unit (ИИ-ускорители). По словам экспертов, они только начинают внедряться в мобильные устройства, для того чтобы смартфоны и планшеты могли самостоятельно работать с нейросетями — без задействования облачного сервиса, через который сейчас проходят вычисления.

— Внедрение технологии позволит в разы снизить энергопотребление, которое необходимо выделять на функционирование нейросетей, — считает заведующий отделом анализа изображений ФИЦ «Информатика и управление» РАН, генеральный директор компании Smart Engines Владимир Арлазаров. — В результате это уменьшит экологические риски, связанные с появлением ресурсоемких проектов в области интернета вещей и систем видеоаналитики. Кроме того, перенос нагрузки по работе с нейросетями с облачных сервисов на отдельные устройства позволит увеличить их быстродействие там, где оно критически важно.

По мнению Владимира Арлазарова, главным образом это касается обработки информации об окружающей обстановке систем управления дронами и беспилотными автомобилями. Связано это с тем, что им необходимо принимать быстрые самостоятельные решения при движении на большой скорости.

Предложенная учеными концепция уже нашла поддержку среди профессионалов на международной научной конференции ICMV в Амстердаме. Однако не все эксперты видят в ней экологические перспективы.

— Вряд ли уменьшение энергопотребления компьютеров и мобильных устройств может внести значительный вклад в снижение выбросов в атмосферу на фоне того вреда, которую ей наносят промышленность и автомобили, — отметил профессор кафедры кибернетики НИЯУ МИФИ Алексей Самсонович. — Хотя разработка более энергоэффективных микрочипов должна снизить выделение тепла, которое является одним из главных ограничений для повышения вычислительной мощности устройств. В результате их быстродействие и экономичность могут существенно вырасти.

Также отраслевые специалисты оценили сложность задачи по созданию электронных систем для новой технологии.

Читать еще:  Ремонт водонагревателя аристон своими руками

— Выжать еще больше производительности из существующих нейросетей действительно тяжело, что делает поиск новых алгоритмов вычислений одной из наиболее актуальных задач, с решением которой нам могут помочь математики, — полагает генеральный директор компании «Нейросети Ашманова» Станислав Ашманов. — Если появится новая математика для нейронных сетей, эффективность которой будет доказана хотя бы в симуляторах чипов, то создать специализированный процессор с этими алгоритмами будет несложно. Разумеется, если речь не идет об использовании каких-то нестандартных или неизученных на данный момент физических принципов.

Инновационный вариант процессора (под новый тип нейросетей) ученые планируют создать в кооперации с Научно-исследовательским институтом системных исследований РАН и компанией МЦСТ (разработчик суперкомпьютера «Эльбрус»), которые имеют компетенции в области разработки микроэлектроники. Предполагается, что это произойдет в течение ближайших пяти лет.

Как искусственный интеллект меняет рынок чипов

Менее, чем за 12 часов, три разных человека предложили мне деньги за то, чтобы я час разговаривал с незнакомым человеком по телефону.

Все они сказали, что им понравилась моя статья про то, как Google создаёт новый компьютерный чип для ИИ, и все они упрашивали меня обсудить эту тему с их клиентом. Каждый описал своего клиента как менеджера большого хедж-фонда, но не назвал его имени.

Запросы пришли от так называемых экспертных сетей – исследовательских фирм, связывающих инвесторов с людьми, которые могут помочь первым понять определённые рынки и обеспечить конкурентное преимущество (иногда, судя по всему, через инсайдерскую информацию). Эти экспертные сети желали, чтобы я объяснил, как ИИ-процессор от Google повлияет на рынок чипов. Но сначала они потребовали подписать для них соглашение о неразглашении. Я отказался.

Эти сделанные по собственной инициативе, конкретные и напористые запросы – случившиеся три недели назад – подчёркивают радикальные изменения, которых следует ожидать на весьма доходном рынке компьютерных чипов, изменения, вдохновлённые развитием ИИ. Управляющие тех хедж-фондов увидели эти изменения, но не знают, как конкретно они сыграют.

Естественно, никто не знает, как конкретно они сыграют.

Сегодня интернет-гиганты типа Google, Facebook, Microsoft, Amazon и Baidu изучают широкий спектр технологий, могущих привести к прорывам в ИИ, и их решения изменят доходы таких фирм, как Intel и nVidia. Но сейчас даже специалисты по информатике этих онлайн-гигантов не знают, что ждёт нас в будущем.

Берём глубже

Компании управляют своими онлайн-сервисами из дата-центров, содержащих тысячи серверов, каждый из которых оборудован центральным процессором, CPU. Но постепенно осваивая одну из форм ИИ под названием глубокие нейросети, эти компании дополняют CPU другими процессорами. Нейросети обучаются задачам при помощи анализа больших объёмов данных, от лиц и объектов на фотографиях до перевода между языками, и им нужна не только процессорная мощность.

Поэтому Google создал Tensor Processing Unit, или TPU. Microsoft используют процессор под названием «программируемая пользователем вентильная матрица» (Field-Programmable Gate Array, FPGA). Множество компаний используют компьютеры, оборудованные графическими процессорами, GPU. Все они ищут новое поколение чипов, способное ускорить работу ИИ в смартфонах и других устройствах.

Из-за большого размаха деятельности этих компаний, имеют значение все решения, принимаемые ими. Они покупают и используют больше компьютерного оборудования, чем все остальные на планете, и этот разрыв будет только увеличиваться благодаря увеличению важности облачных вычислений. Если Google сделает выбор в пользу какого-то процессора, это может изменить основы индустрии чипов.

TPU – угроза таким компаниям, как Intel и nVidia, поскольку Google делает его сам. Но GPU играют большую роль в Google и подобных компаниях, а nVidia – главный производитель этих чипов. Тем временем Intel входит в индустрию, приобретая компанию Altera, продающую FPGAs в Microsoft. Это была крупнейшая покупка Intel за всё время ($16,7 млрд), и это подчёркивает, как сильно меняется рынок чипов.

Сначала, тренировка, затем, выполнение

Разобраться во всём этом тяжело – например, из-за того, что нейросети работают в два этапа. Первый – тренировка, в котором компания вроде Google обучает нейросеть выполнению задачи, например, распознаванию лиц на фото или перевода с одного языка на другой. Второй – выполнение, во время которого обычные люди, вроде нас с вами, используют нейросеть – мы размещаем фото встречи выпускников в Facebook, а он автоматически отмечает людей на нём. Два этих этапа сильно различаются, и каждый из них требует разных подходов, в т.ч. и процессорных.

Сегодня для тренировки лучше всего подходят GPU. Их разрабатывали для рендера картинок в играх и других графических приложений, но в последние годы Google обнаружили, что эти чипы могут эффективно, с точки зрения энергии, обрабатывать огромные массивы данных, что требуется для тренировки нейросетей. Это значит, что можно натренировать больше нейросетей, используя меньше оборудования. Исследователь ИИ из Microsoft Сюэдон Хуан [XD Huang] называет GPU «настоящим оружием». Недавно его команда закончила создание системы, распознающей человеческую речь, на которую у них ушёл год. Без GPU, по его словам, на это ушло бы пять лет. После публикации работы по этой системе он открыл шампанское дома у Дженьсунь Хуана [Jen-Hsun Huang], директора nVidia.

К смартфонам

В то же время другие компании создают чипы для работы нейросетей на смартфонах и других устройствах. Над таким чипом работает IBM, хотя у многих есть сомнения в его эффективности. Intel решила приобрести компанию Movidius, уже поставляющую чипы для мобильных устройств.

Intel понимает, что рынок меняется. Четыре года назад компания рассказывала, что продаёт больше серверных процессоров в Google, чем всем остальным компаниям, за исключением четырёх. Из этого видно, как Google и другие подобные компании могут влиять на рынок чипов. Сейчас Intel делает ставки уже во всех областях. Кроме приобретения Altera и Movidius, она также решила купить компанию Nervana, производящую ИИ-чипы.

Это имеет смысл, поскольку развитие рынка только начинается. «Мы находимся у подножия новой большой волны роста,- сказал мне вице-президент Intel Джейсон Ваксман,- и она подпитывается ИИ». Вопрос лишь в том, куда эта волна занесёт нас.

Что нужно знать об чипе Apple Inc. для искусственного интеллекта – Инвестирование – 2020

Марк Гурман из Bloomberg недавно опубликовал заметку о грядущей технологии чипов от Apple

, Гурман говорит, что Apple «работает над процессором, специально предназначенным для задач, связанных с ИИ».

Чип, по словам Гурмана, «внутренне известен как Apple Neural Engine», и он «улучшит способ, которым устройства компании справляются с задачами, которые в противном случае потребовали бы человеческого интеллекта – таких как распознавание лиц и распознавание речи».

Это звучит круто, и я надеюсь, что Apple развернет его раньше, чем позже. Давайте рассмотрим, почему разработка этого так называемого Apple Neural Engine не является неожиданностью, и как это является частью более широкой, постоянной тенденции в отношении процессоров мобильных приложений.

Неудивительно

В мобильном устройстве эффективность энергопотребления имеет первостепенное значение. Эти мобильные устройства питаются от батареи, и эти батареи не становятся намного больше или лучше. И чем дольше батарея может оставаться заряженной, тем лучше потребление энергии должно быть сведено к минимуму.

Apple вполне могла бы выполнить эти задачи, связанные с искусственным интеллектом, скажем, на процессорных ядрах внутри своих чипов A-серии. Тем не менее, ЦП – это технология общего назначения, то есть он может делать все, что могут кодировать разработчики программного обеспечения, но он может быть не очень быстрым или эффективным при выполнении задач.

Читать еще:  Обзор модельного ряда хлебопечек филипс

Медленная обработка задачи ухудшает взаимодействие с пользователем, а также чрезмерное энергопотребление. Действительно, это фундаментальная реализация того, что некоторые четко определенные и требующие большого объема вычислений задачи могут выполняться гораздо быстрее и эффективнее, что определяет саму концепцию мобильной системы на кристалле.

Мобильная система на кристалле, такая как чипы Apple серии A, включает в себя все виды выделенных функций для обеспечения эффективности. Например, графический процессор внутри чипов A-серии гораздо быстрее и эффективнее рендерит сложные 3D-игры, чем когда-либо мог ожидать процессор.

Процессор сигналов изображения, который используется, чтобы помочь подсистеме камеры быстро генерировать высококачественные изображения, является еще одним примером такого выделенного процессора: выполнение всех этих вычислений на процессоре или даже на графическом процессоре, безусловно, будет гораздо менее эффективным и даст гораздо худшие результаты. Пользовательский опыт.

Разумеется, компромисс заключается в том, что разработка этих специализированных процессоров, безусловно, не из дешевых, а встраивание этих процессоров в основную систему на кристалле увеличивает площадь микросхемы. Именно поэтому, например, крупные контрактные производители микросхем и их клиенты так заинтересованы в переходе на более мелкие технологии производства микросхем. Они хотят иметь возможность втиснуть больше вещей – часто, технологию чипов для обработки определенных функций – не позволяя размерам чипов выходить из-под контроля.

Таким образом, если функциональность ИИ станет важной частью будущих смартфонов Apple и, возможно, планшетов, то для Apple имеет смысл только создать специализированный кусок кремния, чтобы справиться с этой функциональностью.

Конкурентное преимущество для Apple
Нет сомнений в том, что другие производители мобильных чипов последуют их примеру и создадут технологии, аналогичные Apple Neural Engine, демократизируя технологию. Однако я подозреваю, что Apple в течение некоторого времени будет лидировать по сравнению с другими производителями смартфонов в использовании такой функциональности.

По словам Гурмана, «Apple планирует предоставить разработчикам доступ к [Apple Neural Engine], чтобы сторонние приложения могли также разгружать запросы, связанные с искусственным интеллектом».

Так как Apple контролирует чип и iOS, ей будет гораздо проще сделать такой выделенный процессор AI легкодоступным для разработчиков. Контроль Apple над программной и аппаратной экосистемой должен также позволить ей добавлять новые интересные возможности в будущие итерации движка и показывать их разработчикам в темпе, который у конкурентов будет непростой.

Искусственный интеллект в мобильных процессорах: причины и следствия

Всем здорова! 2017 год прошел под эгидой виртуальных помощников. Будущий год, похоже ознаменуется развитием мобильных процессоров, оснащенных искусственным интеллектом. Старт этому уже положен.

Apple, будучи одной из передовых технологических компаний, взяла на себя роль первопроходца, разработав A11 Bionic, снабженного AI Neural Engine. Новинка нашла свое место в свежих аппаратах “яблочников”.

Однако купертиновцы не едины в желании выпустить на рынок свежий продукт, богатый “умными” функциями.

Чип Kirin 970 от Huawei имеет специальный процессор нейронной обработки. Его дееспособность можно протестировать на смартфоне Mate 10, котрый вышел осенью этого года.

Отрасль является слишком перспективной, поэтому не удивительно, что к гонке подключаются другие мощные производители такие, как Samsung, Qualcomm, NVIDIA, Intel. Для того существуют веские причины.

Спрос на обработку голоса в режиме реального времени и распознавание изображений растет в геометрической прогрессии. Среди массы процессоров, которые появятся в следующем году, важно распознать действительно уникальную разработку, а не очередной маркетинговый ход.

Реальны ли чипы с ИИ

Производители хотели бы создать умный чип, имитирующий человеческий мозг, и убедить покупателя в том, что именно их наработка лучшая среди прочих, однако ни одна лаборатория, в стенах каковой трудятся лучшие специалисты, не добралась достаточно близко до желаемого результата.

Коммерческие смартфоны не могут пока быть оснащены полноценной ИИ-системой. Новые типы процессоров делают такие программные задачи, как машинное обучение, более эффективными.

Следует обозначить разницу между искусственным интеллектом и машинным обучением.

ИИ — это концепция, описывающая машин, способных мыслить на уровне человека или иметь форму штучного мозга, имеющего интеллектуальные возможности приближенные к тем, которыми обладает человеческий орган.

Машинное обучение используется для обработки данных компьютером и принятия им решений, основанных на полученном ранее опыте.

Нейронные сети — это компьютерные системы, позволяющие программам, прошедшим машинное обучение, классифицировать информацию способом, применяемым самим человеком. Имеются в виду процессы, которые применяются в распознавании марок автомобилей, цветов, изображений и т. д.

Таким образом, когда разговор заходит об ИИ, маркетологи присущим им образом приукрашивают действительность, придавая ей более фантастический окрас. Таким же образом компании пытаются идентифицироваться среди конкурентов. Все они используют одинаковые наработки, однако преподносят их в ином ключе, с некой ноткой уникальности.

Разработчики внедряют новый компонент в свои SoC, повышая их производительность, а также усиливая эффективность задач, выполняемых AI-помощниками, наделенных интеллектом, как принято считать в народе. Улучшения касаются распознавания голоса, изображений, однако существуют иные варианты использования этих чипов.

Другие типы вычислений

Почему компании внезапно включают эти опции в свои разработки? Почему именно сейчас? Все эти вопросы рождаются на фоне увеличения разговоров о нейронных сетях, машинном обучении и гетерогенных вычислениях, а также об использовании смартфонов в более широком диапазоне.

Данные технологии помогают пользователям получить устройства с большим спектром возможностей, предугадывающих человеческие потребности, а также улучшающих обработку аудио, изображений, голоса, ускоряющих получение результатов поиска и т. д.

Другой вопрос, терзающий умы: где лучше производить такие вычисления — на устройстве или в облаке? Один из производителей ответил, что процедура скорее всего будет зависеть от конкретной задачи. В любом случае, оба варианта требуют иных и более сложных подходов к вычислениям, коими существующие 64-битные ЦП не располагают.

8- и 16-битные математические расчеты с плавающей запятой, сопоставление шаблонов, поиск базы данных, манипуляция с битовыми полями и параллельная обработка — вот лишь некоторые примеры действий, которые сложно выполнить на устройствах общего назначения.

Есть смысл создать пользовательский процессор, подходящий для подобных задач и хорошо работающий на традиционных аппаратах. Внедрение искусственного интеллекта в чипы создаст базу, на которую будут ориентироваться программисты при проектировании нового ПО.

Эффективность

Свежие чипы не просто обеспечивают большую вычислительную мощность, они также создаются для повышения энергоэффективности. Компоненты должны обладать малыми размерами, не преступать порог затратности энергии и не противоречить Закону Мура. Производители должны придерживаться этих правил.

Они могут выпускать более крупные образцы процессоров с повышенной мощностью, это позволило бы им лучше справляться с машинным обучением. Но это существенно сказывается на стоимости, а также потреблении питания, что не вписывается в концепцию создания бюджетных ЦП для смартфонов.

Вместо этого рациональнее разработать отдельный компонент, который может эффективно обрабатывать определенный набор задач. Подобные решения можно было наблюдать в процессорах Hexagon DSP внутри высокопроизводительных SoC, разработанных Qualcomm.

Со временем спрос на подобные модули упал, однако с появлением современных технологий прошлые наработки снова обретают смысл.

Юзер нигде особо не сталкивается с интеллектуальными возможностями смартфона, как бы производители не рекламировали своих виртуальных помощников и вычислительные центры с ИИ, призванных сделать телефон умнее.

Тем не менее, передовые технологии в сочетании с инструментами машинного обучения делают гаджеты более полезными.

Ребят, а как вам идея внедрения искусственного интеллекта в смартфонные процессоры? Напишите в комментариях. А у нас на сегодня все.

Ссылка на основную публикацию
Adblock
detector