Hello Guest

Sign In / Register

Welcome,{$name}!

/ Cerrar sesión
español
EnglishDeutschItaliaFrançais한국의русскийSvenskaNederlandespañolPortuguêspolskiSuomiGaeilgeSlovenskáSlovenijaČeštinaMelayuMagyarországHrvatskaDanskromânescIndonesiaΕλλάδαБългарски езикGalegolietuviųMaoriRepublika e ShqipërisëالعربيةአማርኛAzərbaycanEesti VabariikEuskera‎БеларусьLëtzebuergeschAyitiAfrikaansBosnaíslenskaCambodiaမြန်မာМонголулсМакедонскиmalaɡasʲພາສາລາວKurdîსაქართველოIsiXhosaفارسیisiZuluPilipinoසිංහලTürk diliTiếng ViệtहिंदीТоҷикӣاردوภาษาไทยO'zbekKongeriketবাংলা ভাষারChicheŵaSamoaSesothoCрпскиKiswahiliУкраїнаनेपालीעִבְרִיתپښتوКыргыз тилиҚазақшаCatalàCorsaLatviešuHausaગુજરાતીಕನ್ನಡkannaḍaमराठी
Casa > Noticias > US AI chip "caballo negro" para matar, el chip más grande de la historia

US AI chip "caballo negro" para matar, el chip más grande de la historia

Según una serie de informes de medios extranjeros, recientemente, la empresa estadounidense de chips de inteligencia artificial CerebrasSystems lanzó el chip más grande de la historia, el chip llamado "TheCerebrasWaferScaleEngine". (en lo sucesivo, WSE) tiene 1,2 billones de transistores.

En la historia del chip, en 1971, el primer procesador 4004 de Intel tenía solo 2,300 transistores, y el procesador de microdispositivos avanzado más reciente tenía solo 32 mil millones de transistores. Samsung también ha construido un chip de memoria flash (chip eUFS) con 2 billones de transistores, pero no es adecuado para la informática AI.

WSE, el chip de récord más grande, nació para la computación con inteligencia artificial.

Los datos muestran que el chip 42225 cuadrados mm tiene 400.000 núcleos que están conectados entre sí por una red de comunicación en red de grano fino, todo-hardware intra-malla que proporciona 100 PB de ancho de banda total por segundo. Más núcleos, más memoria local y una arquitectura de baja latencia y gran ancho de banda crean la mejor arquitectura para acelerar el trabajo de IA. WSE es 56.7 veces más grande que la GPU más grande y tiene 18GB de chips.

De hecho, la mayoría de los chips actuales son integraciones de múltiples chips basadas en silicio de 12 pulgadas. Pero el chip de CerebrasSystems es un chip separado en el que los transistores están interconectados en una oblea de silicio de cristal único. El diseño interconectado permite que todos los transistores funcionen a altas velocidades en su conjunto.

Explicado explícitamente, este producto es completamente de aprendizaje informático, más que potencia de cómputo y ancho de banda de almacenamiento, lo siento, el nivel de las personas o el nuevo vocabulario: bytes de peteo (Petabytes, 1PB = 1024TB = 10 ^ 6GB = 2 ^ 50bit), la velocidad es aproximadamente 3,000 veces el procesador de gráficos más grande de NVIDIA (GPU, potencia de computación de punto flotante, comúnmente utilizado en investigaciones relacionadas con IA), y el ancho de banda de almacenamiento es 1000 veces.

Una capacidad tan poderosa proviene de sus 1,2 billones de transistores en el chip. Se sabe que el procesador 4004 de Intel tenía 2.300 transistores en 1971. Según la Ley de Moore, "cada 18 meses, el número de transistores en el chip se duplica". Para este año, debería haber exactamente 1 billón de transistores y un transistor más, y la potencia informática que se puede realizar aumenta en un punto. En segundo lugar, el diseño de la arquitectura de interconexión de chip y chip y esquema de comunicación son también muy avanzada, por lo que la sinergia entre 1,2 billones de transistores muy sincrónica, lo que retrasa el nivel de nanosegundos. En tiempo de ejecución, estos 1,2 billones de transistores es como un transistor está sincronizado.

En el campo de la inteligencia artificial, el tamaño del chip es muy importante. Debido a que los chips grandes procesan la información más rápido, el tiempo para generar respuestas es más corto. Reducir el tiempo de observación, o "tiempo de entrenamiento", permite a los investigadores probar más ideas, usar más datos y resolver nuevos problemas. Google, Facebook, OpenAI, Tencent, Baidu y muchos otros creen que la limitación fundamental del desarrollo de la inteligencia artificial hoy en día es que lleva demasiado tiempo entrenar el modelo. Por lo tanto, reducir el tiempo de capacitación eliminará un importante cuello de botella en el progreso de la industria.

Por supuesto, los fabricantes de chips generalmente no producen chips grandes por una razón. En una sola oblea, algunas impurezas generalmente aparecen durante el proceso de fabricación. Un poco de impureza puede causar fallas en el chip e incluso romper severamente varios chips. Si solo se fabrica un chip en una sola oblea, la probabilidad de que contenga impurezas es del 100%, y las impurezas definitivamente harán que el chip falle. Pero el diseño del chip de CerebrasSystems es marginal, asegurando que una o una pequeña cantidad de impurezas no invalide todo el chip.

El CEO de Cerebras Systems, Feldman, dijo en un comunicado: `` El chip WSE de la compañía está diseñado para la inteligencia artificial y contiene innovaciones básicas que resuelven desafíos técnicos que limitan el tamaño del chip durante décadas, como la conexión cruzada *, el rendimiento y la potencia de salida. Y embalaje. Cada decisión arquitectónica es optimizar el rendimiento del trabajo de inteligencia artificial. Como resultado, el chip WSE proporciona cientos o miles de veces de soluciones existentes dependiendo de la carga de trabajo, con poca potencia y espacio. rendimiento.

Estas mejoras de rendimiento se logran acelerando todos los elementos del entrenamiento de la red neuronal. La red neuronal es un circuito de retroalimentación computacional de niveles múltiples. Cuanto más rápido pasa la entrada a través del bucle, más rápido aprende el bucle o "entrena". La forma de obtener información a través del bucle más rápido es acelerar el cálculo y la comunicación dentro del bucle.

En la arquitectura de comunicación, la arquitectura de comunicación del clúster rompe el ancho de banda y el retraso causado por parte del consumo de energía en la tecnología de comunicación tradicional debido al uso del procesador de retransmisión en el WSE. Al usar una estructura de matriz bidimensional para conectar 400,000 procesadores basados ​​en WSE, la arquitectura de clúster logra baja latencia y alto ancho de banda, con un ancho de banda general de hasta 100 latidos por segundo (1017 bytes por segundo). . Incluso si no se instala ningún software adicional, dicha estructura de clúster puede soportar el procesamiento de información global, y la información recibida es procesada por el procesador correspondiente.

Para este producto, la producción en masa y la disipación de calor pueden ser los principales desafíos. Sin embargo, la llegada de WSE, sus propios aspectos más destacados son suficientes.

El analista principal de Linley Group, Linley Gwennap, dijo en un comunicado: `` CerebrasSystems ha hecho grandes avances en la tecnología de paquetes a escala de oblea, y el rendimiento del procesamiento en un chip de silicio supera con creces la imaginación de cualquiera. Al lograr esta hazaña, la compañía ha resuelto una serie de desafíos de ingeniería que han afectado a la industria durante décadas, incluida la habilitación de la comunicación de alta velocidad de modo morir, la resolución de defectos de fabricación, el envasado de chips tan grandes, el suministro de fuentes de alimentación de alta densidad y la refrigeración. sistemas. CerebrasSystems Reunir a los mejores ingenieros de diferentes disciplinas, crear nuevas tecnologías y entregar un producto en solo unos años es un logro impresionante.

El analista principal y fundador de TiriasResearch, Jim McGregor, dijo en un comunicado: "Hasta ahora, el procesador gráfico reconfigurado ha satisfecho la enorme demanda de inteligencia artificial para potencia informática. La solución de hoy tendrá cientos de estos gráficos reconfigurados. Los procesadores están conectados entre sí y tardan meses en instalarse, utilizan cientos de kilovatios de potencia y modifican ampliamente el software de inteligencia artificial, incluso meses para lograr la funcionalidad. En contraste, WSE de un solo chip El tamaño absoluto del chip permite más cómputo, memoria de mayor rendimiento y mayor ancho de banda. Los chips WSA evitan conexiones sueltas, memoria lenta, basada en caché e integración a través de técnicas de integración de paquetes a escala de oblea. Las limitaciones de rendimiento tradicionales inherentes a los chips de procesador centrados en gráficos.

Fundada en 2016, CerebrasSystems ha sido una empresa misteriosa y discreta en la industria desde su creación, centrándose en proporcionar productos de datos para la capacitación de centros de datos. Ha sido nombrada "las 100 compañías de chips más esperadas del mundo". por CBInsights. Según los datos, la compañía completó un financiamiento de la Serie A de $ 25 millones en 2016. El inversor era un conocido Benchmark de capital de riesgo, y luego recibió múltiples rondas de financiamiento. A septiembre de 2017, recibió un total de $ 112 millones en financiamiento, valorado en $ 860 millones.

Los antecedentes del equipo fundador de la compañía también son muy sólidos. El cofundador y CEO Andrew Feldman, quien fundó la compañía de chips SeaMicro, fue adquirido por AMD en 2012 por $ 334 millones. Después de que AMD adquirió SeaMicro, los compañeros de clase originales en su mayoría ingresaron a AMD para continuar su trabajo, por lo que cuando Andrew Feldman tomó la iniciativa para continuar con su negocio, muchos viejos colegas decidieron seguirlo, y la mayoría de los otros miembros principales del equipo estaban principalmente con el fundador Andrew Feldman.

Una de las cosas que vale la pena mencionar es Gary Lauterbach. En la década de 1990, cuando Sun estaba en medio del día, Gary Lauterbach se desempeñó como diseñador senior de chips de la compañía. Más tarde, en SeaMicro, se dedicó principalmente al diseño de servidores de baja potencia. Se puede decir que la compañía acumuló una gran cantidad de bajo consumo de energía al comienzo de la creación. El veterano del diseño de chips, sin duda, es una victoria para la startup promedio.

Luego, en 2018, otro peso pesado se unió a Celebras Systems, y el ex vicepresidente de arquitectura y centro de datos CTO Dhiraj Mallick se desempeñó oficialmente como vicepresidente de ingeniería y negocios. Durante su permanencia en Intel, los ingresos del segundo trimestre de 2018 aumentaron en $ 1 mil millones año tras año. En la primera mitad de 2018, los ingresos del centro de datos de la compañía se elevaron a $ 10 mil millones. Es una tecnología reconocida y un genio empresarial. También es un antiguo colega de AndrewFeldman en SeaMicro y AMD. La compañía ahora tiene 194 empleados.

CerebrasSystems tiene un largo camino por recorrer en el futuro, pero no es difícil imaginar que la IA está trayendo una ola de arquitectura de computadoras y tecnología de empaque de chips. Podemos esperar que presenciaremos chips de IA más interesantes e incluso inesperados.