<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>SUPERCOMPUTADORA: Noticias, Fotos, Evaluaciones, Precios y Rumores de SUPERCOMPUTADORA • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/supercomputadora/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/supercomputadora/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Tue, 10 Sep 2024 17:21:43 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>SUPERCOMPUTADORA: Noticias, Fotos, Evaluaciones, Precios y Rumores de SUPERCOMPUTADORA • ENTER.CO</title>
	<link>https://www.enter.co/noticias/supercomputadora/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Esta es la nueva supercomputadora de Japón; ¿hasta dónde llegará su desarrollo en IA?</title>
		<link>https://www.enter.co/chips-bits/esta-es-la-nueva-supercomputadora-de-japon-hasta-donde-llegara-su-desarrollo-en-ia/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 10 Sep 2024 17:21:15 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[computación cuántica]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[SUPERCOMPUTADORA]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=561524</guid>

					<description><![CDATA[La supercomputadora de &#8220;clase zeta&#8221; sucederá a su similar Fugaku y su construcción costaría más de 750 millones de dólares. El objetivo de Japón es liderar el desarrollo en inteligencia artificial (IA), teniendo una máquina mil veces más potente que los superordenadores de la actualidad. Japón ha anunciado sus planes de empezar a construir el [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La supercomputadora de &#8220;clase zeta&#8221; sucederá a su similar Fugaku y su construcción costaría más de 750 millones de dólares.<a href="https://www.nikkei.com/article/DGXZQOSG215U40R20C24A8000000/?s=31" target="_blank" rel="noopener"> El objetivo de Japón es liderar el desarrollo en inteligencia artificial (IA)</a>, teniendo una máquina mil veces más potente que los superordenadores de la actualidad.</p>
<p><span id="more-561524"></span><br />
Japón ha anunciado sus planes de empezar a construir el próximo año el primer superordenador de &#8220;clase zeta&#8221;. Una vez que esté plenamente operativo, será mil veces más rápido que los superordenadores más potentes de la actualidad.</p>
<p>Su construcción costará más de 750 millones de dólares y debería entrar en funcionamiento en 2030. Esta será la sucesora de la supercomputadora japonesa Fugaku, que se encuentra en el Centro RIKEN de Ciencias Computacionales en Kobe, Hyogo.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/ia-es-capaz-de-imaginar-pero-no-podra-conmover-a-la-humanidad-esto-dice-estudio/" target="_blank" rel="noopener">IA es capaz de imaginar, pero no podrá conmover a la humanidad: Esto dice estudio</a></h3>
<p>El anuncio lo hizo por primera vez el 28 de agosto el Ministerio de Educación, Cultura, Deportes, Ciencia y Tecnología de Japón (MEXT), revelando que la supercomputadora podría alcanzar velocidades en la escala zetaFLOPS, algo que nunca se ha logrado antes.</p>
<p>Las operaciones de punto flotante por segundo (FLOPS) se utilizan para medir la velocidad con la que las computadoras pueden resolver problemas, donde una operación de punto flotante es un solo cálculo.</p>
<p>Una supercomputadora con una velocidad de 1 zetaFLOPS podría realizar un sextillón (1 seguido de 21 ceros) de cálculos por segundo. Las supercomputadoras más poderosas de la actualidad acaban de romper la barrera de los exaFLOPS, lo que significa que pueden realizar poco más de un quintillón (1 seguido de 18 ceros) de cálculos por segundo.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/lo-que-debes-saber-para-aprender-sobre-inteligencia-artificial/" target="_blank" rel="noopener">¿Entiendes bien cómo funciona la IA? Conceptos básicos</a></h3>
<p>La decisión de construir una máquina tan superpoderosa se tomó &#8220;para seguir el ritmo del desarrollo de la investigación científica que utiliza IA&#8221;, escribió el sitio de noticias japonés Nikkei en un artículo traducido.</p>
<p>Cabe notar que el superordenador japonés Fugaku (0,44 exaFLOPS), que anteriormente ostentaba el título de superordenador más rápido del mundo hasta que fue destronado en 2022 por el superordenador estadounidense Frontier (1,2 exaFLOPS) en el Laboratorio Nacional Oak Ridge en Tennessee. Fugaku se considera actualmente el cuarto superordenador más potente del mundo.</p>
<p>La nueva máquina, que actualmente se conoce como &#8220;Fugaku Next&#8221;, será construida por las empresas japonesas RIKEN y Fujitsu, que participaron en la construcción de Fugaku. Para permitir la compatibilidad cruzada entre Fugaku y Fugaku Next, este último probablemente utilizará componentes diseñados por Fujitsu, según el sitio de noticias informáticas Tom&#8217;s Hardware . Sin embargo, poco más se sabe sobre los componentes que se instalarán en la máquina propuesta.</p>
<p>Uno de los mayores desafíos que los ingenieros enfrentarán al construir la nueva supercomputadora es encontrar una manera de hacerla funcionar de manera eficiente. En 2023, los expertos en informática predijeron que una máquina de clase zeta construida con las tecnologías de supercomputadoras actuales requeriría la energía equivalente a la producción de 21 plantas de energía nuclear, informó anteriormente el sitio web de noticias informáticas HPCwire .</p>
<p>MEXT ha reservado alrededor de ¥4.200 millones (29 millones de dólares) para el primer año del proyecto, pero podría asignar hasta ¥110.000 millones (761 millones de dólares) a lo largo del proyecto, cuya finalización está prevista para 2030, según Tom&#8217;s Hardware.</p>
<p>Siempre que la construcción se desarrolle según lo previsto y nadie más construya primero una máquina de clase zeta (lo que parece muy poco probable), entonces Fugaku Next probablemente será la supercomputadora más poderosa de la Tierra.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Por qué esta supercomputadora de Elon Musk resolvería los problemas del mundo con IA?</title>
		<link>https://www.enter.co/chips-bits/por-que-esta-supercomputadora-de-elon-musk-resolveria-los-problemas-del-mundo-con-ia/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 27 Aug 2024 15:30:53 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[computación cuántica]]></category>
		<category><![CDATA[Elon Musk]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[SUPERCOMPUTADORA]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=560922</guid>

					<description><![CDATA[Tesla está construyendo una Gigafábrica en Texas para alojar supercomputadoras de inteligencia artificial, que resolverían los problemas del mundo. El mismo Elon Musk compartió imágenes del interior de Cortex. En una publicación de X, director ejecutivo de Tesla, Elon Musk, describió a Cortex como “el nuevo supergrupo gigante de entrenamiento de IA. Este proyecto se [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Tesla está construyendo una Gigafábrica en Texas para alojar supercomputadoras de inteligencia artificial, que resolverían los problemas del mundo. El mismo Elon Musk compartió imágenes del interior de Cortex.</p>
<p><span id="more-560922"></span>En una publicación de X, director ejecutivo de Tesla, Elon Musk, describió a Cortex como “el nuevo supergrupo gigante de entrenamiento de IA.</p>
<p>Este proyecto se está construyendo en la sede de Austin, con el objetivo de resolver los problemas de IA del mundo real”.</p>
<p>La Gigafactory Cortex consumirá inicialmente 130 megavatios al momento de su implementación y potencialmente aumentará hasta 500 megavatios.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">Video of the inside of Cortex today, the giant new AI training supercluster being built at Tesla HQ in Austin to solve real-world AI <a href="https://t.co/DwJVUWUrb5">pic.twitter.com/DwJVUWUrb5</a></p>
<p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1827981493924155796?ref_src=twsrc%5Etfw">August 26, 2024</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>La supercomputadora se convertirá en uno de los clústeres de IA impulsados ​​por GPU más grandes del mundo con un pedido inicial de 100 000 GPU Nvidia H100, impulsando la próxima versión de GrokAI, el chatbot de IA disponible para los suscriptores premium de X.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/chips-bits/entrevista-que-es-que-aplicaciones-tiene-y-como-te-afecta-la-computacion-cuantica/#google_vignette" target="_blank" rel="noopener"> Entrevista: Computación cuántica en 2024, ¿qué implica en nuestras vidas?</a></h3>
<p>Dell y Supermicro (SMC) proporcionarán los servidores para el superordenador xAI, según confirmó el presidente y director ejecutivo de Dell, Michael Dell, en Twitter.</p>
<p>También habría planes para actualizar el sistema a 300.000 GPU Nvidia B200, durante 2025. El video de 20 segundos da un paneo del interior de la enorme instalación, con filas de servidores repletos de GPU Nvidia H100.</p>
<p>Recientemente, Tesla firmó un acuerdo con Buffalo, Nueva York, para extender su compromiso de de operar Giga Nueva York por cinco años más hasta 2034.</p>
<p>Como parte del nuevo acuerdo, <strong><a href="https://www.enter.co/empresas/que-estudiar-los-5-perfiles-tecnologicos-mas-solicitados-por-las-empresas-y-que-no-encuentran/" target="_blank" rel="noopener">Tesla invertirá 500 millones de dólares en un proyecto de la supercomputadora Dojo en Buffal</a></strong>o, invirtiendo 350 millones de dólares más.</p>
<p>Cabe notar que Tesla centra esfuerzos de inteligencia artificial para desarrollar dos de los productos más importantes de la compañía: Full Self-Driving (FSD) y Optimus, un robot humanoide.</p>
<p>La viabilidad de la red Robotaxi planificada por Tesla, que Elon Musk describió en el Plan Maestro, Parte Dos en 2016, depende en gran medida del éxito del FSD.</p>
<p>Optimus, por su parte, tiene el potencial de cambiar numerosas industrias, como la manufacturera.</p>
<p>Imagem: <em>Archivo ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Google revela que su supercomputadora de IA es más eficiente que otras como Nvidia ¿Por qué?</title>
		<link>https://www.enter.co/chips-bits/google-revela-que-su-supercomputadora-de-ia-es-superior-y-mas-eficiente-que-otras-como-nvidia-por-que/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Wed, 05 Apr 2023 22:00:31 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[SUPERCOMPUTADORA]]></category>
		<category><![CDATA[TPU]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=537724</guid>

					<description><![CDATA[Google reveló edetalles de la supercomputadora que entrena varios de sus modelos de inteligencia artificial. Una de las afirmaciones del gigante tecnológico, es que sus sistemas son más rápidos y más eficientes energéticamente, que los de Nvidia. ¿Por qué? Recordemos que las compañías que crean modelos de inteligencia artificial, en su mayoría, utilizan chips Nvidia; [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Google reveló edetalles de la supercomputadora que entrena varios de sus modelos de inteligencia artificial. Una de las afirmaciones del gigante tecnológico, es que sus sistemas son más rápidos y más eficientes energéticamente, que los de Nvidia. ¿Por qué?</p>
<p><span id="more-537724"></span></p>
<p>Recordemos que las compañías que crean modelos de inteligencia artificial, en su mayoría, utilizan chips Nvidia; sin embargo, Google lazó desde 2020 un chip personalizado conocido como Unidad de procesamiento de Tensor (TPU). La supercomputadora que Google utiliza para crear modelos de IA cuenta con miles de chips TPU.</p>
<p>TPU está ahora en su cuarta generación y en un artículo científico publicado por Google ha revelado cómo ha unido más de 4.000 chips en una supercomputadora utilizando sus propios interruptores ópticos desarrollados a medida para ayudar a conectar máquinas individuales.</p>
<p>Según el <a href="https://arxiv.org/abs/2304.01433">estudio este sistema es</a> “<strong>mucho más económico, de menor consumo y más rápido que Infiniband,</strong> los OCS y los componentes ópticos subyacentes cuestan menos del 5 % del costo del sistema y menos del 3 % de la energía”.</p>
<p>Además explica que cada TPU de cuarta generación, incluye SparseCores, procesadores de flujo de datos que aceleran los modelos que se basan en incrustaciones de 5 a 7 veces, pero que usan solo el 5 % del área del dado y de la energía”.</p>
<p>TPU cuarta generación superaría las anteriores, ya que mejora el rendimiento- vatio. “La supercomputadora TPU v4 es 4 veces más grande con 4096 chips y, por lo tanto, aproximadamente 10 veces más rápida en general, lo que, junto con la flexibilidad de OCS, ayuda a los modelos de lenguaje grandes”.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/apps-software/como-ha-cambiado-el-planeta-entre-1984-y-2022-google-earth-timelapse-lanza-nuevas-imagenes/">¿Cómo ha cambiado el planeta entre 1984 y 2022? Google Earth Timelapse lanza nuevas imágenes</a></h3>
<p>De otra parte, David Patterson, ingeniero de Google, explica que “las supercomputadoras de TPU también son las primeras con soporte de hardware para incrustaciones, un componente clave de los modelos de recomendación de aprendizaje profundo (DLRM) que se utilizan en publicidad, clasificación de búsqueda, YouTube y Google Play”.</p>
<p>La investigación publicada por Google dijo que, para sistemas de tamaño similar, sus chips son hasta 1,7 veces más rápidos y 1,9 veces más eficientes energéticamente que un sistema basado en el chip A100 de Nvidia que estaba en el mercado al mismo tiempo que el TPU de cuarta generación.</p>
<p>Imagen: <em>Google</em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
