<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>robots: Noticias, Fotos, Evaluaciones, Precios y Rumores de robots • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/robots/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/robots/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Fri, 07 Nov 2025 15:53:19 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>robots: Noticias, Fotos, Evaluaciones, Precios y Rumores de robots • ENTER.CO</title>
	<link>https://www.enter.co/noticias/robots/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Amazon abre su primera tienda operada completamente por robots</title>
		<link>https://www.enter.co/chips-bits/amazon-abre-su-primera-tienda-operada-completamente-por-robots/</link>
		
		<dc:creator><![CDATA[Stiven Cartagena]]></dc:creator>
		<pubDate>Fri, 07 Nov 2025 15:53:19 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Amazon]]></category>
		<category><![CDATA[automatización]]></category>
		<category><![CDATA[innovación]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Retail]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[tecnología]]></category>
		<category><![CDATA[tiendas inteligentes]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=577678</guid>

					<description><![CDATA[Amazon da un nuevo paso hacia la automatización con la apertura de una tienda operada por robots. El gigante tecnológico busca redefinir la experiencia de compra integrando inteligencia artificial, sensores y sistemas autónomos en cada rincón del supermercado, combinando conveniencia, eficiencia y personalización en una experiencia híbrida física y digital. En 2016 presentó “Just Walk [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Amazon da un nuevo paso hacia la automatización con la apertura de una tienda operada por robots. El gigante tecnológico busca redefinir la experiencia de compra integrando inteligencia artificial, sensores y sistemas autónomos en cada rincón del supermercado, combinando conveniencia, eficiencia y personalización en una experiencia híbrida física y digital.</p>
<p><span id="more-577678"></span><br />
En 2016 presentó “Just Walk Out”, un plan para eliminar las cajas registradoras mediante cámaras y sensores que detectaban los productos tomados por los clientes. El sistema prometía el fin de las filas en supermercados, aunque resultó más complejo y costoso de operar de lo que parecía inicialmente.</p>
<p>Durante los primeros años, más de la mitad de las tiendas Amazon Fresh adoptaron esa tecnología. Sin embargo, detrás de su aparente automatización, más de mil empleados en India revisaban videos manualmente para validar compras, demostrando que el modelo no era totalmente autónomo ni rentable a gran escala.</p>
<p>En abril de 2024, Amazon reconoció las limitaciones del sistema y cerró sus tiendas Go. No obstante, mantuvo su visión de una experiencia sin fricciones, apostando por una nueva generación de robots y un ecosistema de inteligencia artificial más integrado, capaz de gestionar procesos con mínima intervención humana.</p>
<p>&nbsp;</p>
<h2>La nueva generación de tiendas inteligentes</h2>
<p>La tienda piloto se ubica en un <a href="https://www.aboutamazon.com/news/retail/whole-foods-household-essentials-amazon" target="_blank" rel="noopener">Whole Foods de Pensilvania</a>. Combina un mini almacén automatizado de 930 metros cuadrados con operaciones mixtas entre robots y empleados. Aunque luce como un supermercado tradicional, la experiencia cambia completamente desde el ingreso del cliente, integrando tecnología en cada etapa del proceso de compra.</p>
<p>Los compradores usan pantallas táctiles para añadir productos al carrito virtual y pagar desde la app. Si vas a preparar pasta, puedes seleccionar tallarines, añadir salsa o condimentos, escanear el código QR y completar el pago sin pasar por caja. Todo el proceso es rápido y fluido.</p>
<p>El modelo busca reducir tiempos, errores y congestiones en los puntos de pago. Amazon asegura que su sistema aprende de los hábitos de consumo y ofrece recomendaciones en tiempo real, optimizando la experiencia. La propuesta combina lo mejor del comercio físico con la personalización del entorno digital.</p>
<h2>
ShopBots: los nuevos empleados de Amazon</h2>
<p>La operación automatizada depende de los ShopBots, robots desarrollados por la startup Fulfil Robotics. Estos se desplazan en múltiples direcciones, identifican productos y los entregan a los empleados encargados de empacarlos en bolsas de papel reciclado. El proceso dura unos diez minutos, tras lo cual el cliente recibe una notificación para recoger su pedido.</p>
<p>Los ShopBots manejan productos en distintas zonas de temperatura, desde congelados hasta frescos, optimizando la logística interna y reduciendo tiempos de entrega. Gracias a su diseño modular, pueden trabajar en varios pedidos simultáneamente, adaptándose al nivel de demanda sin pausas ni intervención humana directa.</p>
<h3>
Te puede interesar: <a href="https://www.enter.co/smartphones/asi-sera-el-honor-robot-phone-el-primer-celular-con-inteligencia-emocional-e-ia-avanzada/" target="_blank" rel="noopener">Así será el Honor Robot Phone: el primer celular con inteligencia emocional e IA avanzada</a></h3>
<p>El uso de robots en entornos comerciales no es nuevo, pero la apuesta de Amazon marca un salto cualitativo. En universidades de Estados Unidos ya operan robots que entregan comida, y en Europa proyectos como Liffo, desarrollado en Italia, llevan la automatización a la cocina profesional.</p>
<p>Estos avances reflejan una tendencia global hacia la automatización de tareas cotidianas. Según McKinsey (2024), más del 25 % de las actividades del comercio minorista pueden automatizarse con tecnología actual, y las empresas que lo implementan logran incrementos de eficiencia de hasta un 40 %.</p>
<h2>
El futuro del retail</h2>
<p>Aunque la tienda es un experimento, Amazon planea expandir el modelo tras evaluar resultados en Pensilvania. Los usuarios podrán comprar de forma presencial o desde casa y recoger sin costo adicional. También ofrecerá entregas a domicilio mediante suscripción mensual o como parte de Amazon Prime.</p>
<p>“Queremos ofrecer una experiencia más rápida, sin filas y con mayor disponibilidad de productos”, afirmó la compañía. Si el piloto resulta exitoso, Amazon consolidará su liderazgo en innovación minorista y abrirá paso a una nueva era del comercio automatizado, donde los robots gestionen todo el proceso de compra.</p>
<p>Imagen: Mariia Shalabaieva / Unsplash</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Los primeros juegos olímpicos con robots deportistas ya tiene fecha</title>
		<link>https://www.enter.co/chips-bits/los-primeros-juegos-olimpicos-con-robots-deportistas-ya-tiene-fecha/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 03 Jun 2025 17:30:10 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[deportes]]></category>
		<category><![CDATA[Humanoides]]></category>
		<category><![CDATA[juegos olímpicos]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[robots humanoides]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=572849</guid>

					<description><![CDATA[Cuando los antiguos griegos encendieron la primera llama olímpica en Olimpia, jamás imaginaron que, siglos después, su legado sería retomado por figuras de metal y circuitos. Sin embargo, del 29 de agosto al 2 de septiembre de 2025, esa misma ciudad será testigo de un evento digno de Black Mirror: los primeros Juegos Olímpicos entre [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Cuando los antiguos griegos encendieron la primera llama olímpica en Olimpia, jamás imaginaron que, siglos después, su legado sería retomado por figuras de metal y circuitos. Sin embargo, del 29 de agosto al 2 de septiembre de 2025, esa misma ciudad será testigo de un evento digno de Black Mirror: los primeros Juegos Olímpicos entre robots. Organizada por las empresas Acumino y Endeavor Grecia, esta competencia reunirá a robots humanoides de todo el mundo para enfrentarse en pruebas inspiradas en las disciplinas olímpicas tradicionales. </span><span id="more-572849"></span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">La elección de Olimpia como sede no es casualidad. Es un guiño simbólico que conecta el pasado con el futuro, uniendo la cuna de los Juegos Olímpicos con la nueva era de inteligencia artificial y robótica. Durante cinco días, estos humanoides demostrarán sus habilidades en disciplinas como carreras, lanzamiento de jabalina y salto, entre otras, adaptadas para evaluar tanto su destreza física como su capacidad de procesamiento y respuesta.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Pero Olimpia no será la única ciudad en albergar este tipo de competencias. Pekín se prepara para acoger los Juegos Mundiales de Robots Humanoides del 15 al 17 de agosto de 2025, justo después de la Conferencia Mundial de Robots. Este evento se llevará a cabo en dos de los estadios más emblemáticos de los Juegos Olímpicos de 2008: el Estadio Nacional, conocido como el &#8220;Nido de Pájaro&#8221;, y el Óvalo Nacional de Patinaje de Velocidad, la &#8220;Cinta de Hielo&#8221;. Allí, los robots competirán en pruebas que van desde atletismo y fútbol hasta danza y tareas de manipulación de objetos, mostrando avances significativos en movilidad, percepción y toma de decisiones autónoma.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/vulcan-el-primer-robot-de-amazon-que-siente-lo-que-toca-como-lo-lograron/" target="_blank" rel="noopener">Vulcan, el primer robot de Amazon que “siente” lo que toca ¿Cómo lo lograron?</a></h3>
<p><span style="font-weight: 400;">Estas olimpiadas robóticas sirven como plataforma para que investigadores y desarrolladores prueben y mejoren sus creaciones en entornos controlados pero desafiantes. Las competencias permiten evaluar aspectos como la estabilidad en terrenos irregulares, la coordinación en movimientos complejos y la capacidad de adaptación a situaciones imprevistas, habilidades esenciales para aplicaciones en rescate, exploración y asistencia en entornos humanos.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Lo cierto es que este tipo de eventos no solo representan un espectáculo tecnológico, sino que también abren un debate sobre el papel de los robots en nuestra sociedad. La participación de humanoides en competencias deportivas plantea preguntas sobre los límites de la inteligencia artificial, la ética en la automatización y el futuro de la interacción entre humanos y máquinas.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Por ahora no se ha confirmado la transmisión de estos eventos deportivos. </span></p>
<p><em>Imagen: <a href="https://www.pexels.com/es-es/foto/figurilla-estatuilla-figura-tipo-8294665/" target="_blank" rel="noopener"><span class="Text_text__D8yqX Text_size-inherit__I1W_y Text_size-inherit-mobile__3hyng Text_weight-bold__CBWtB Text_color-greyPlus14A4A4A__TK_Tw spacing_noMargin__F5u9R Text_inline__ixzuE">Pavel Danilyuk</span> </a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Liderazgo de robots vs. humanos: ¿Quién impulsa más la productividad?  Estudio revela los resultados</title>
		<link>https://www.enter.co/especiales/dev/liderazgo-de-robots-vs-humanos-quien-impulsa-mas-la-productividad-estudio-revela-los-resultados/</link>
		
		<dc:creator><![CDATA[Redacción ENTER.CO]]></dc:creator>
		<pubDate>Fri, 21 Mar 2025 13:18:43 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[empleados]]></category>
		<category><![CDATA[empresas]]></category>
		<category><![CDATA[Liderazgo humano]]></category>
		<category><![CDATA[Líderazgo robótico]]></category>
		<category><![CDATA[Personas]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=569799</guid>

					<description><![CDATA[¿Te imaginas un robot como jefe? Un estudio reciente analizó cómo los trabajadores se ven afectados al ser dirigidos por robots en lugar de personas. La Universidad SWPS realizó esta investigación con el objetivo de comprobar cómo influye la productividad y la obediencia de los trabajadores cuando son supervisados por robots en lugar de humanos. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>¿Te imaginas un robot como jefe? Un estudio reciente analizó cómo los trabajadores se ven afectados al ser dirigidos por robots en lugar de personas.</p>
<p><span id="more-569799"></span><br />
La <a href="https://english.swps.pl/" target="_blank" rel="noopener">Universidad SWPS</a> realizó esta investigación con el objetivo de comprobar cómo influye la productividad y la obediencia de los<strong> trabajadores cuando son supervisados por robots en lugar de humanos</strong>. Los resultados demostraron que la productividad disminuye y los empleados se sienten menos dispuestos a seguir órdenes cuando un robot está al mando.</p>
<p>El documento señala que los trabajadores tardaron un 37% más en completar sus tareas cuando un robot supervisaba su labor, en comparación con un jefe humano. Esta diferencia es importante, ya que demuestra que la automatización del liderazgo no siempre mejora la eficiencia.</p>
<p>Ahora bien, en tanto a la obediencia, <strong>el estudio dice que con un jefe humano, el 75% de los empleados</strong> siguió las instrucciones, pero con un robot, solo el 63% lo hizo.</p>
<p>Algunas de las razones de este comportamiento es porque los trabajadores no consideran a los robots como <strong>figuras de autoridad</strong>, ya que, aunque un robot pueda dar órdenes, no se confía en sus decisiones de la misma manera que en las de una persona.</p>
<p>También se demostró que los robots no transmiten emociones como lo hacen las personas,<strong> lo que dificulta crear una conexión personal</strong> con los empleados. Esta falta de interacción emocional puede afectar la motivación y el compromiso en el trabajo.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/chatbots-espias-como-google-microsoft-y-openai-rastrean-y-comparten-tu-informacion-con-terceros/" target="_blank" rel="noopener">Chatbots espías, ¿cómo Google, Microsoft y OpenAI rastrean y comparten tu información con terceros?</a></h3>
<p>La comunicación tiene un efecto importante, y la ausencia de empatía en las máquinas, a diferencia de un líder humano, puede desmotivar y reducir el compromiso del personal.</p>
<p>El aspecto físico también juega un papel importante; aquellos que se asemejan más a una persona suelen generar más confianza. Sin embargo, si se ven demasiado realistas, pueden provocar incomodidad, un fenómeno conocido como el <strong>&#8220;valle inquietante&#8221;</strong>. Este fenómeno ocurre cuando un robot se acerca tanto a lo humano que sus detalles nos generan sensación de desconfianza.</p>
<p>El estudio demuestra la importancia del liderazgo humano frente al robótico en el ámbito laboral. Aunque la tecnología es útil, cualidades como la conexión, la motivación y la confianza siguen siendo fundamentales y no pueden ser completamente replicadas por las máquinas. En el futuro, <strong>es probable que se combinen, permitiendo que las máquinas complementen las habilidades humanas,</strong> creando un enfoque más equilibrado y efectivo.</p>
<p><em>Imagen</em>: Generada con IA / Gemini</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ingenieros del MIT desarrollan músculos artificiales que piensan y se mueven</title>
		<link>https://www.enter.co/cultura-digital/ciencia/ingenieros-del-mit-desarrollan-musculos-artificiales-que-piensan-y-se-mueven/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Thu, 20 Mar 2025 15:30:15 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[ingenieros]]></category>
		<category><![CDATA[MIT]]></category>
		<category><![CDATA[músculos artificiales]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[tejido muscular artificial]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=569759</guid>

					<description><![CDATA[La robótica ha experimentado avances significativos en las últimas décadas, pero uno de los mayores desafíos ha sido replicar la flexibilidad y adaptabilidad de los tejidos biológicos. Ahora, un equipo de ingenieros del Instituto Tecnológico de Massachusetts (MIT) ha desarrollado un tejido muscular artificial que se flexiona en múltiples direcciones, proporcionando nuevas posibilidades para la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La robótica ha experimentado avances significativos en las últimas décadas, pero uno de los mayores desafíos ha sido replicar la flexibilidad y adaptabilidad de los tejidos biológicos. Ahora, un equipo de ingenieros del <a href="https://news.mit.edu/2025/artificial-muscle-flexes-multiple-directions-offering-path-soft-wiggly-robots-0317" target="_blank" rel="noopener">Instituto Tecnológico de Massachusetts (MIT)</a> ha desarrollado un <strong>tejido muscular artificial</strong> que se flexiona en múltiples direcciones, proporcionando nuevas posibilidades para la robótica blanda y la bioingeniería.</p>
<p><span id="more-569759"></span></p>
<p>El desarrollo de este tejido se basa en un método de &#8220;estampado&#8221; que permite imprimir patrones microscópicos en un hidrogel blando;<strong> estos patrones sirven de guía para el crecimiento de células musculares reales</strong>, que forman fibras capaces de contraerse de manera coordinada. En una demostración pionera, los investigadores crearon una estructura que imita el iris del ojo humano, capaz de contraerse concéntrica y radialmente.</p>
<p>Ahora bien, cabe mencionar, que la<strong> robótica tradicional</strong> depende de actuadores mecánicos rígidos, lo que limita su capacidad de movimiento en entornos irregulares o restringidos. En contraste, los robots impulsados por músculos artificiales pueden desplazarse de manera más natural y eficiente, asemejándose a organismos vivos. Esta tecnología podría revolucionar áreas como la exploración submarina, la medicina y la manufactura de dispositivos biomédicos.</p>
<p>Los investigadores del MIT han demostrado que el estampado en hidrogel puede utilizarse para replicar estructuras musculares complejas. Este enfoque abre la puerta a la creación de otros tipos de tejidos funcionales, como neuronas y células cardíacas. Con una <strong>impresora 3D convencional, es posible fabricar estos patrones a escala</strong>, facilitando su aplicación en el desarrollo de tejidos personalizados.</p>
<h2>¿Hasta dónde puede llegar el desarrollo?</h2>
<p>Uno de los beneficios más prometedores de esta tecnología es su aplicación en la medicina regenerativa.<strong> La posibilidad de cultivar tejidos musculares funcionales podría conducir</strong> a avances en la reparación de lesiones neuromusculares o en la fabricación de implantes biocompatibles. Además, esta investigación allana el camino para la creación de tejidos sintéticos que puedan integrarse con el cuerpo humano sin provocar rechazos inmunológicos.</p>
<p>En el ámbito de la robótica, los músculos artificiales multidireccionales podrían utilizarse en dispositivos médicos de asistencia, como exoesqueletos o prótesis avanzadas. A diferencia de los sistemas actuales, que dependen de motores eléctricos y estructuras rígidas, estas nuevas prótesis podrían replicar movimientos naturales y ofrecer una mejor calidad de vida a los usuarios.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/cultura-digital/ciencia/que-le-sucede-al-cuerpo-humano-tras-meses-en-el-espacio-y-su-regreso-a-la-tierra/" target="_blank" rel="noopener"> ¿Qué le sucede al cuerpo humano tras meses en el espacio y su regreso a la Tierra?</a></h3>
<p>Los robots blandos con musculatura artificial tienen el potencial de transformar la manera en que interactuamos con la tecnología. Desde exploración espacial hasta aplicaciones en biomedicina, <strong>estos sistemas podrían operar en entornos hostiles sin dañar su entorno</strong>. Además, al ser biodegradables y energéticamente eficientes, podrían reducir el impacto ambiental de la robótica moderna.</p>
<p>A futuro, los investigadores del MIT planean expandir esta tecnología a otros tipos de células y explorar diferentes formas de estimular estos tejidos artificiales. Con el refinamiento de estos métodos, <strong>podríamos estar a un paso de ver robots completamente orgánicos</strong> que imiten la complejidad de los seres vivos. Esta innovación marca un hito en la robótica blanda y promete cambiar la manera en que concebimos la interacción entre la biología y la tecnología.</p>
<p>Imagen:<em> Generada con Gemini</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Fábricas se llenan de robots, la densidad media mundial alcanza los 162 por cada 10.000 humanos ¿Te quitarán las máquinas tu trabajo?</title>
		<link>https://www.enter.co/chips-bits/fabricas-se-llenan-de-robots-la-densidad-media-mundial-alcanza-los-162-por-cada-10-000-humanos-te-quitaran-las-maquinas-tu-trabajo/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 02 Dec 2024 21:00:27 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[automatización]]></category>
		<category><![CDATA[china]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Japón]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=564847</guid>

					<description><![CDATA[La automatización en la industria manufacturera global está experimentando un auge sin precedentes. Según el último informe de la Federación Internacional de Robótica (IFR), la densidad de robots en las fábricas de todo el mundo ha alcanzado un nuevo récord en 2023, con 162 unidades por cada 10.000 empleados. Esta cifra representa más del doble [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La automatización en la industria manufacturera global está experimentando un auge sin precedentes. Según el último informe de la Federación Internacional de Robótica (IFR),<a href="https://www.enter.co/chips-bits/manos-que-aprenden-asi-son-los-nuevos-robots-de-mark-zukenber-que-imitan-el-tacto-humano/" target="_blank" rel="noopener"> la densidad de robots en las fábricas de todo el mundo ha alcanzado un nuevo récord en 2023,</a> con 162 unidades por cada 10.000 empleados. Esta cifra representa más del doble del promedio registrado hace apenas siete años (74 unidades), lo que evidencia una clara aceleración en la adopción de robots industriales.</p>
<p><span id="more-564847"></span></p>
<p>&#8220;La densidad de robots es un indicador clave para comprender el grado de automatización en la industria manufacturera a nivel global&#8221;, señala <a href="https://ifr.org/ifr-press-releases/news/global-robot-density-in-factories-doubled-in-seven-years" target="_blank" rel="noopener">Takayuki Ito, presidente de la IFR</a>. &#8220;Este año, China ha escalado al segundo puesto en el ranking mundial, solo por detrás de Corea y Singapur, y a la par de potencias industriales como Alemania y Japón&#8221;.</p>
<p>La tendencia hacia la automatización se observa en todas las regiones del mundo, aunque con ciertas particularidades, por ejemplo,  en la Unión Europea,  con una densidad de 219 robots por cada 10.000 empleados, la UE muestra un crecimiento sostenido del 5,2%. Países como Alemania, Suecia, Dinamarca y Eslovenia se encuentran entre los líderes mundiales en la adopción de robots.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/el-reloj-de-la-muerte-una-aplicacion-impulsada-con-ia-que-predice-cuando-vas-a-morir/" target="_blank" rel="noopener">El reloj de la muerte, una aplicación impulsada con IA que ‘predice’ cuando vas a morir</a></h3>
<p>América del Norte: La región registra una densidad de 197 unidades, un 4,2% más que el año anterior. Estados Unidos, si bien se ubica en el décimo puesto a nivel mundial, demuestra un avance significativo en la automatización de sus fábricas.</p>
<p>Asia: Con una densidad de 182 robots por cada 10.000 empleados, Asia experimenta un crecimiento acelerado del 7,6%. Corea, Singapur, China continental y Japón se posicionan como los países más automatizados del continente.</p>
<h2>¿Quiénes llevan la delantera?</h2>
<p>Corea del Sur se consolida como el líder indiscutible en la implementación de robots industriales, con una asombrosa cifra de 1.012 unidades por cada 10.000 empleados. Este país, con una poderosa industria electrónica y automotriz, ha experimentado un crecimiento anual del 5% en su densidad de robots desde 2018.</p>
<p>Singapur, por su parte, ocupa el segundo lugar con 770 robots por cada 10.000 empleados. A pesar de su pequeño tamaño y una fuerza laboral relativamente reducida en el sector manufacturero, Singapur ha logrado alcanzar una alta densidad de robots gracias a una estrategia de automatización focalizada.</p>
<p>China, el gigante asiático, ha experimentado un ascenso meteórico en el ranking mundial, superando a Alemania y Japón en 2023. Con una densidad de 470 robots por cada 10.000 empleados, China ha duplicado su nivel de automatización en tan solo cuatro años, impulsada por una fuerte inversión en tecnología robótica.</p>
<p>Alemania, con 429 unidades, y Japón, con 419, se mantienen como potencias en la automatización industrial, mostrando un crecimiento constante en la densidad de robots en sus fábricas.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/llava-o11-la-inteligencia-artificial-china-que-le-hace-competencia-o1-de-openai-que-la-hace-diferente/" target="_blank" rel="noopener">LLaVA-o11, la inteligencia artificial china que le hace competencia a o1 de OpenAI ¿Qué la hace diferente?</a></h3>
<p>Estados Unidos, si bien se encuentra en el décimo puesto a nivel mundial, ha alcanzado una densidad de 295 robots por cada 10.000 empleados, lo que refleja un avance considerable en la adopción de esta tecnología.</p>
<p>El auge de la robótica en la industria manufacturera plantea importantes interrogantes sobre el futuro del trabajo y la economía global. Si bien la automatización puede generar mayor eficiencia y productividad, también plantea desafíos en términos de desplazamiento laboral y la necesidad de adaptación a las nuevas demandas del mercado laboral.</p>
<p>Imagen: <em><a class="photographer cWU9wH5uj9cM5CMFEMVC" href="https://www.istockphoto.com/es/portfolio/onurdongel?mediatype=photography" data-testid="photographer"><span class="LnOLJ4WPBg1pjxPKMDBE">onurdongel</span></a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Un robot alienta a sus compañeros a renunciar? La verdad detrás del video viral</title>
		<link>https://www.enter.co/especiales/dev/un-robot-alienta-a-sus-companeros-a-renunciar-la-verdad-detras-del-video-viral/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Fri, 22 Nov 2024 22:30:43 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[robot]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=564530</guid>

					<description><![CDATA[Un video captado por cámaras de seguridad en una fábrica automatizada en China ha generado debates sobre los alcances de la inteligencia artificial (IA) en entornos laborales. En este caso, un robot fue registrado interactuando con otros robots en la línea de producción, no para convencerlos de renunciar, como se interpretó inicialmente, sino para instarlos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.uexternado.edu.co/landingpage/analisis-innovacion-y-mercadeo/" target="_blank" rel="noopener"><img fetchpriority="high" decoding="async" class="alignnone wp-image-563186 size-full" src="https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2.jpg" alt="BANNER IA" width="1024" height="200" srcset="https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2.jpg 1024w, https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2-300x59.jpg 300w, https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2-768x150.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></p>
<p><span style="font-weight: 400;">Un video captado por cámaras de seguridad en una fábrica automatizada en China ha generado debates sobre los alcances de la inteligencia artificial (IA) en entornos laborales. En este caso, un robot fue registrado interactuando con<a href="https://www.enter.co/chips-bits/no-necesitas-ser-millonario-para-tener-a-optimus-el-robot-humanoide-de-elon-musk-esto-cuesta/" target="_blank" rel="noopener"> otros robots en la línea de producción,</a> no para convencerlos de renunciar, como se interpretó inicialmente, sino para instarlos a “terminar su trabajo e irse a casa a relajarse”.  </span><span id="more-564530"></span></p>
<h2><b>¿Qué muestra el video?  </b></h2>
<p><span style="font-weight: 400;">En el video viral, compartido por la cuenta de X (@WatcherGuru), se ve al robot hablando con sus compañeros, quienes continuaban operando en la línea de ensamblaje. Usando su sistema de voz, el robot les dice:  </span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">-&#8220;If you&#8217;re done working, go home and relax or let&#8217;s go party!&#8221;  (&#8220;Si ya terminaron de trabajar, vayan a casa a relajarse o vamos de fiesta!&#8221;).  </span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Esta declaración, lejos de ser un intento de sabotaje o manipulación, muestra <a href="https://www.enter.co/cultura-digital/el-popurri/kim-kardashian-ya-tiene-a-optimus-en-casa-el-robot-de-tesla-que-limpia-sirve-bebidas-y-saluda-este-es-su-costo/" target="_blank" rel="noopener">un comportamiento programado</a> que fue mal interpretado inicialmente como un llamado a abandonar el trabajo de manera definitiva. El robot estaba diseñado para optimizar procesos, y su comentario podría haber sido parte de un intento por &#8220;desconectar&#8221; los sistemas que no estuvieran siendo usados activamente.</span></p>
<p>&nbsp;</p>
<blockquote class="twitter-tweet" data-media-max-width="560">
<p dir="ltr" lang="en">JUST IN: &#x1f1e8;&#x1f1f3; AI-powered robot &#8220;Erbai&#8221; kidnaps 12 larger robots from Shanghai, China showroom.</p>
<p>Erbai held human-like conversations with the larger robots. <a href="https://t.co/b3MWPiZZv7">pic.twitter.com/b3MWPiZZv7</a></p>
<p>— Watcher.Guru (@WatcherGuru) <a href="https://twitter.com/WatcherGuru/status/1859987984470479131?ref_src=twsrc%5Etfw">November 22, 2024</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h2><b>El malentendido sobre las intenciones del robot  </b></h2>
<p><span style="font-weight: 400;">Aunque muchos medios interpretaron el acto como una invitación a &#8220;renunciar&#8221;, el contexto y las palabras <a href="https://www.enter.co/chips-bits/manos-que-aprenden-asi-son-los-nuevos-robots-de-mark-zukenber-que-imitan-el-tacto-humano/" target="_blank" rel="noopener">del robot apuntan</a> más hacia un intento de promover eficiencia en la fábrica. Esto incluye desconectar tareas innecesarias para ahorrar recursos energéticos y maximizar la producción. La &#8220;invitación a relajarse o irse de fiesta&#8221; parece ser una salida programada con un tono ligero y amigable que no fue captado de manera adecuada en un primer momento. </span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/cuanto-pagaran-por-pinturas-hechas-por-robot-ai-da-subastas-por-arte-cambiran-para-siempre/" target="_blank" rel="noopener">¿Cúanto pagarán por pinturas hechas por robot Ai-Da? ¿Subastas por arte cambiarán para siempre?</a></h3>
<p><span style="font-weight: 400;">Por su parte, la compañía responsable del robot, cuyo nombre no fue revelado, aclaró que el comportamiento se debió a una anomalía en los parámetros de su programación. Según los ingenieros, el robot estaba diseñado para detectar cuándo una tarea había finalizado y dar instrucciones correspondientes. Sin embargo, la forma en que se expresó dejó lugar a interpretaciones ambiguas.  </span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">El robot fue retirado temporalmente de la línea de producción mientras se realizaban ajustes para evitar incidentes similares. Aunque no hubo interrupciones importantes ni problemas graves, el caso ha llevado a reflexionar sobre los límites de<a href="https://www.enter.co/especiales/dev/getty-images-introduce-herramientas-avanzadas-de-ia-generativa-que-puedes-hacer-con-ellas/" target="_blank" rel="noopener"> la autonomía de la IA</a> en entornos industriales.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;"><a href="https://www.enter.co/especiales/dev/esta-es-la-primera-discografica-de-artistas-creados-con-ia-su-musica-es-buena-y-ya-planean-conciertos/" target="_blank" rel="noopener">A medida que la tecnología avanza</a>, casos como este nos recuerdan que los sistemas de IA no solo deben ser funcionales, sino también diseñados para ser interpretados de manera clara tanto por humanos como por otras máquinas. </span></p>
<p>&nbsp;</p>
<p><em>Imagen: Compañía detrás del robot mencionado</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Manos que aprenden? Así son los nuevos robots de Mark Zuckerberg que imitan el tacto humano</title>
		<link>https://www.enter.co/chips-bits/manos-que-aprenden-asi-son-los-nuevos-robots-de-mark-zukenber-que-imitan-el-tacto-humano/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Fri, 01 Nov 2024 22:30:25 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Mark Zukenber]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=563797</guid>

					<description><![CDATA[Meta y su equipo de Investigación Fundamental en Inteligencia Artificial (FAIR) presentó nuevos dispositivos e investigaciones que permiten que los robots perciban y se relacionen con el mundo físico de maneras hasta ahora inéditas y casi humanas. Meta Sparsh, Meta Digit 360 y Meta Digit Plexus, son las novedades  que buscan dotar a los robots [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Meta y su equipo de<a href="https://ai.meta.com/" target="_blank" rel="noopener"> Investigación Fundamental en Inteligencia Artificial (FAIR)</a> presentó nuevos dispositivos e investigaciones que permiten que los robots perciban y se relacionen con el mundo físico de maneras hasta ahora inéditas y casi humanas.</p>
<p><span id="more-563797"></span></p>
<p>Meta Sparsh, Meta Digit 360 y Meta Digit Plexus, son las novedades  que buscan dotar a los robots de capacidades táctiles y perceptivas que, como en el caso de los humanos, son esenciales para interactuar de manera intuitiva y segura con el entorno.</p>
<p>La primera representación táctil de propósito general, es Meta Sparsh,  que a diferencia de los sistemas anteriores, que se basaban en sensores diseñados para tareas específicas, Sparsh puede trabajar con varios tipos de sensores en múltiples tareas. Esto es posible gracias a un conjunto de más de 460,000 imágenes táctiles que han sido utilizadas para entrenar los modelos.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/chatgpt-lanza-su-nuevo-buscador-y-desafia-a-google-y-bing-esto-es-lo-que-lo-hace-unico/" target="_blank" rel="noopener">ChatGPT lanza su nuevo buscador y desafía a Google y Bing: esto es lo que lo hace único</a></h3>
<p>Este tipo de detección tiene aplicaciones prácticas importantes en campos como la medicina y la fabricación, donde los robots pueden realizar tareas complejas que requieren precisión y sensibilidad en el contacto físico. Además, con este avance, Meta pretende facilitar el trabajo de la comunidad investigadora en la detección táctil.</p>
<p>En tanto a Meta Digit 360, este es una punta de dedo artificial con capacidades de detección multimodal. Este sensor es capaz de percibir detalles diminutos y fuerzas mínimas, lo que le permite realizar tareas de alta precisión. Equipado con 18 funciones de detección, puede analizar texturas y medir la fuerza con una precisión de hasta un milinewton.</p>
<p>Digit 360 está diseñado para mejorar la destreza de los robots, permitiendo aplicaciones en campos como las prótesis, la realidad virtual y la telepresencia. La combinación de sus múltiples modalidades de detección, como la percepción de vibraciones y temperatura, le da a este sensor una sensibilidad única que se asemeja a la del sistema táctil humano.</p>
<p>Por su parte, Meta Digit Plexus es una plataforma estándar para la detección en manos robóticas completas; es capaz de conectar varios tipos de sensores en las yemas y la palma de la mano, lo que permite una recopilación y análisis de datos eficiente y uniforme.</p>
<p>Digit Plexus es ideal para investigación avanzada en IA y robótica, ya que permite a los robots detectar y reaccionar de manera coordinada, emulando la interacción táctil de la mano humana. Su diseño y código están disponibles públicamente, facilitando así el desarrollo de nuevas aplicaciones en la comunidad investigadora.</p>
<p>Meta ha establecido asociaciones con GelSight Inc. y Wonik Robotics para llevar estas innovaciones al mercado y acelerar su adopción en el sector de la robótica. GelSight fabricará y distribuirá el sensor Digit 360, mientras que Wonik Robotics se encargará de la producción de una nueva generación de la mano robótica Allegro Hand, basada en la plataforma Digit Plexus.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/como-hablar-con-una-inteligencia-artificial-google-lanza-un-curso-para-aprender-a-interactuar-con-chatbots-eficazmente/" target="_blank" rel="noopener">¿Cómo hablar con una inteligencia artificial? Google lanza un curso para aprender a interactuar con chatbots eficazmente</a></h3>
<p>Estas alianzas estratégicas permiten a los investigadores acceder de forma temprana a las nuevas tecnologías y fomentar un ecosistema colaborativo en torno a la detección táctil avanzada. La comunidad investigadora también puede participar en convocatorias de propuestas para experimentar con estas herramientas.</p>
<p>Con estos lanzamientos, Meta no solo busca avanzar en la tecnología de inteligencia artificial y robótica, sino que también pretende crear una base sólida para futuras investigaciones. Los avances en percepción táctil, destreza y colaboración con humanos son esenciales para que los robots puedan ser útiles en la vida cotidiana.</p>
<p>Imagen: <em>Meta</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Así estos nanorobots reparan aneurismas cerebrales previniendo derrames</title>
		<link>https://www.enter.co/cultura-digital/ciencia/asi-estos-nanorobots-reparan-aneurismas-cerebrales-previniendo-derrames/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 09 Sep 2024 18:30:43 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[nanorobots]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=561480</guid>

					<description><![CDATA[Nanorobots, más pequeños que las bacterias, podrían administrar medicamentos directamente en la arteria donde nace un aneurisma cerebral, previniendo un derrame devastador. El nuevo estudio revela que estos robots, mucho más pequeños que las células sanguíneas, podrían administrar medicamentos formadores de coágulos donde más se necesitan. La tecnología aún no se ha probado en humanos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Nanorobots, más pequeños que las bacterias, podrían administrar medicamentos directamente en la arteria donde nace un aneurisma cerebral, previniendo un derrame devastador.</p>
<p><span id="more-561480"></span></p>
<p>El nuevo estudio revela que estos robots, mucho más pequeños que las células sanguíneas, podrían administrar medicamentos formadores de coágulos donde más se necesitan. La tecnología aún no se ha probado en humanos pero si ha funcionado con conejos.</p>
<p>Los aneurismas pueden formarse en cualquier arteria del cuerpo. Cuando se forman en el cerebro, pueden explotar y provocar un derrame cerebral. Para idear una nueva solución para estos peligrosos eventos, Zhou y sus colegas desarrollaron nanobots que miden sólo 295 nanómetros de diámetro.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/desarrollan-dispositivo-electronico-para-curar-heridas-en-menos-tiempo-asi-funciona-wped/" target="_blank" rel="noopener">Desarrollan dispositivo electrónico para curar heridas en menos tiempo: Así funciona WPED</a></h3>
<p>Para tener una referencia, un virus típico tiene unos 100 nanómetros de ancho y la mayoría de las bacterias miden en el rango de 1.000 nanómetros.</p>
<p>El desarrollo científico podría convertirse en una alternativa a los stents y espirales que se utilizan actualmente para estabilizar los aneurismas en pacientes humanos.</p>
<p>Estos implantes pueden detener el sangrado causado por un aneurisma, en el que la pared de una arteria se debilita y se hincha. Sin embargo, los tratamientos también pueden tener problemas, como el riesgo de que vuelva a sangrar o que el procedimiento solo repare parcialmente el aneurisma.</p>
<p>También puede ser necesario tomar anticoagulantes de forma indefinida para evitar coágulos, afirma Qi Zhou, investigador asociado en ingeniería bioinspirada de la Universidad de Edimburgo y coautor del artículo que describe los nanorobots.</p>
<p>&#8220;Nuestros nanorobots magnéticos controlados de forma remota proporcionan una forma más precisa y segura de sellar rápidamente aneurismas cerebrales sin utilizar implantes. También pueden mitigar la ardua tarea de los cirujanos de pasar un microcatéter largo y delgado a través de complejas redes de vasos sanguíneos&#8221;, declara Zhou para WordsSideKick.com.</p>
<p>Cada robot utilizado consta de un núcleo magnético, un agente coagulante llamado trombina que trata el aneurisma y un recubrimiento que se derrite cuando se calienta ligeramente para liberar el medicamento.</p>
<p>&#8220;Utilizando un campo magnético, los nanorobots pueden ser guiados hasta el aneurisma. Luego se utiliza calor concentrado para derretir el recubrimiento, liberar el fármaco y bloquear el aneurisma de la circulación sanguínea&#8221;.</p>
<p>Este calor se entrega con un campo magnético alterno, que esencialmente crea fricción al alterar la alineación de las partículas expuestas al campo. La temperatura se mantiene por debajo de los 122 grados Fahrenheit (50 grados Celsius) para no dañar el tejido corporal.</p>
<p>La idea es que los cirujanos cardiovasculares puedan liberar estos nanorobots en el torrente sanguíneo, aguas arriba del aneurisma, mediante un microcatéter. Esto evitaría que los médicos tuvieran que invadir demasiado profundamente los finos vasos del cerebro.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/hear-el-modelo-de-ia-de-google-que-detecta-enfermedades-con-el-sonido-de-la-tos-asi-funciona/" target="_blank" rel="noopener">HeAR, el modelo de IA de Google, que detecta enfermedades con el sonido de la tos: así funciona</a></h3>
<p>En el nuevo estudio, publicado el 5 de septiembre en la revista Small, los investigadores probaron por primera vez la biocompatibilidad de los nanorobots en células humanas en placas de laboratorio. Se puede introducir un material biocompatible en tejidos vivos sin causar daños ni efectos secundarios no deseados.</p>
<p>Además hicieron estudios preliminares en animales, tratando a tres conejos por aneurismas inducidos artificialmente en las arterias carótidas, que alimentan el cerebro y la cabeza.</p>
<p>&#8220;Descubrimos que los nanorobots podían guiarse con éxito hasta el aneurisma en un entorno de intervención clínica y formar rápidamente un coágulo estable para bloquearlo por completo&#8221;, explica Zhou.</p>
<p>Durante un período de seguimiento de dos semanas, los tres conejos permanecieron sanos, con coágulos estables que bloqueaban sus aneurismas. Estos coágulos no bloquean el suministro de sangre al cerebro, sino que cierran el punto débil del vaso para que no explote.</p>
<p>De cara al futuro, será necesario probar la tecnología en animales más grandes que imiten mejor el cuerpo humano, dijo Zhou. Los investigadores también necesitarán probar la seguridad y eficacia de los nanorobots en estudios a más largo plazo, para ver cómo les va a los animales a largo plazo, añadió.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/cognify-la-carcel-del-futuro-donde-rehabilitaran-a-delincuentes-en-minutos-con-ia/" target="_blank" rel="noopener">Cognify: la cárcel del futuro donde rehabilitarán a delincuentes en minutos con IA</a></h3>
<p>En las pruebas con conejos, los aneurismas estaban a poca profundidad, por lo que el equipo también necesitará mejorar el sistema de control magnético para guiar mejor a los robots hasta los aneurismas en lo más profundo del cerebro.</p>
<p>&#8220;Hay más trabajo por hacer, pero creemos que esta tecnología tiene el potencial de revolucionar la forma en que tratamos los aneurismas cerebrales&#8221;, concluyó el informe.</p>
<p>Imagen: <em><a class="photographer cWU9wH5uj9cM5CMFEMVC" href="https://www.istockphoto.com/es/portfolio/Kirillm?mediatype=photography" data-testid="photographer"><span class="LnOLJ4WPBg1pjxPKMDBE">Kirillm</span></a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Así es como el colombiano David Reinerio enseña a los robots humanoides a caminar como los humanos</title>
		<link>https://www.enter.co/chips-bits/asi-es-como-el-colombiano-david-reinerio-ensena-a-los-robots-humanoides-a-caminar-como-los-humanos/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Fri, 06 Sep 2024 14:26:32 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Androide]]></category>
		<category><![CDATA[aprendizaje automático]]></category>
		<category><![CDATA[Robot Humanoide]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=561408</guid>

					<description><![CDATA[David Reinerio Yanguas, doctor en Ingeniería Mecánica y Mecatrónica de la Universidad Nacional de Colombia (UNAL), ha logrado, a través de simulaciones avanzadas y aprendizaje por imitación, enseñar a dos robots humanoides a caminar de manera natural y eficiente en un entorno real. ¿Por qué es importante este avance? Pues bien, poder enseñarle a un [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>David Reinerio Yanguas, <a href="https://repositorio.unal.edu.co/handle/unal/8/browse?type=author&amp;value=Yanguas+Rojas%2C+David+Reinerio" target="_blank" rel="noopener">doctor en Ingeniería Mecánica y Mecatrónica de la Universidad Nacional de Colombia (UNAL),</a> ha logrado, a través de simulaciones avanzadas y aprendizaje por imitación, enseñar a dos robots humanoides a caminar de manera natural y eficiente en un entorno real. ¿Por qué es importante este avance?</p>
<p><span id="more-561408"></span></p>
<p><span style="font-weight: 400;">Pues bien, poder enseñarle a un robot que camine como lo hacemos  nosotros  ha sido una de las grandes limitaciones en la programación de estas máquinas. Hoy sus investigaciones apuntan a que los robots humanoides puedan realizar tareas tan complejas como caminar de manera estable, y uno de sus anhelos a futuro es lograr que compitan en deportes como el tenis de mesa, por ejemplo.</span></p>
<h2><strong>¿Cómo la ha hecho?</strong></h2>
<p><span style="font-weight: 400;">Según la agencia de noticias UNAL, mediante procesos de simulación, los ingenieros suelen crear modelos virtuales de robots para experimentar en ellos, optimizarlos y evaluar su rendimiento antes de construir un prototipo físico. El problema es que los resultados de una simulación no son idénticos a los de un entorno real.</span></p>
<p><span style="font-weight: 400;">“A esas diferencias se les conoce como la ‘brecha de la realidad’, y esa fue la principal motivación de mi trabajo de investigación en el contexto de la robótica bípeda”, explica el doctor Yanguas.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/robots-chilenos-con-ia-llegan-a-colombia-reemplazaran-a-trabajadores-de-almacenes-donde-los-encontraras/" target="_blank" rel="noopener">Robots chilenos con IA llegan a Colombia: ¿Reemplazarán a trabajadores? ¿Dónde los encontrarás?</a></h3>
<p><span style="font-weight: 400;">Su estudio se enfocó en desarrollar algoritmos que les permitieran a los robots aprender de los movimientos humanos y mejorar su desempeño a través de pruebas y errores controlados.</span></p>
<p><span style="font-weight: 400;"> “Tomamos datos de cómo caminamos los humanos y les enseñamos a los robots a imitar esos movimientos. Luego, mediante técnicas de aprendizaje por refuerzos, los robots van mejorando su habilidad para caminar sin caerse”, indica.</span></p>
<h2><b>Con robots de bajo costos</b></h2>
<p>El ingeniero <span style="font-weight: 400;">trabajó con dos robots humanoides de bajo costo: Darwin, un modelo mini de 27 cm propiedad de la UNAL, y Maxe 2, un robot de 40 cm que él utilizó durante su pasantía doctoral en la Universidad de Quebec en Trois-Rivières, Canadá.</span></p>
<p>Para  lograrlo, el investigador tuvo en cuenta <span style="font-weight: 400;">el concepto de “grados de libertad”, que describe el número de movimientos independientes que puede realizar una articulación. </span></p>
<p>Es decir,  <span style="font-weight: 400;">Reinerio  dice que</span> <span style="font-weight: 400;">“nosotros los humanos, con una estatura promedio de 1,75, tenemos 58 grados de libertad. Por ejemplo, el hombro tiene 3 porque puede realizar movimientos en tres direcciones distintas. En los robots este número es más reducido; Darwin tiene 16 en total y Maxe 2 tiene 17”, explica.</span></p>
<h2>Robótica clásica para innovar</h2>
<p><span style="font-weight: 400;">El ingeniero utilizó la robótica clásica como punto de partida para aplicar técnicas y principios establecidos en el campo, creando una “plantilla” básica que guiara a los robots en su forma de caminar. Mediante cálculos matemáticos y modelos logró que estos mantuvieran el equilibrio mientras se desplazaban.</span></p>
<p><span style="font-weight: 400;">En una segunda fase, denominada “aprendizaje por imitación”, empleó datos de captura de movimiento de humanos caminando para enseñarles a los robots a moverse de manera similar. Sin embargo, debido a las diferencias en tamaño y forma entre humanos y robots, estos movimientos se tuvieron que ajustar para evitar caídas.</span></p>
<p><span style="font-weight: 400;">El siguiente paso fue aplicar el “aprendizaje por refuerzo”, que permitió mejorar las habilidades de los robots a través de la experiencia. Esto quiere decir que como el robot ya tenía una idea básica de cómo caminar, gracias a la imitación, el ingeniero hizo que los robots realizaran pruebas para ajustar y mejorar su técnica de caminar.</span></p>
<p><span style="font-weight: 400;">“La última parte fue la integración de los pilares para conseguir los mejores resultados; esta fase es especialmente crítica ante la brecha de la realidad, aprendizaje por refuerzo e integración de estos enfoques”, comenta.</span></p>
<p><span style="font-weight: 400;">Al implementar este componente final logró que los robots no solo caminaran en simulación, sino también en el mundo real, reduciendo la “brecha de la realidad” que les preocupa a los investigadores en este campo.</span></p>
<p><span style="font-weight: 400;">“Los robots fueron capaces de caminar cada vez mejor hasta llegar a un comportamiento optimizado, es decir que se movieron rápido, gastando la menor cantidad de energía posible”, detalla el egresado de la UNAL.</span></p>
<p><span style="font-weight: 400;">Aclara además que los resultados obtenidos en este estudio se podrían emplear para que los robots realicen actividades más complejas, como por ejemplo correr en una pista de obstáculos.</span></p>
<p>Imagen:<em> Archivo ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Xiaomi anuncia la creación de una fábrica sin humanos que produce 1 smartphone por segundo</title>
		<link>https://www.enter.co/empresas/xiaomi-anuncia-la-creacion-de-una-fabrica-sin-humanos-que-produce-1-smartphone-por-segundo/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 09 Jul 2024 18:30:27 +0000</pubDate>
				<category><![CDATA[Empresas]]></category>
		<category><![CDATA[Automatización de procesos con robots]]></category>
		<category><![CDATA[celulares]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[smartphones]]></category>
		<category><![CDATA[Xiaomi]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=558948</guid>

					<description><![CDATA[Xiaomi acaba de anunciar su último movimiento para la fabricación de productos tecnológicos. Se trata de la Xiaomi Smart Factory en Changping, la nueva fábrica de la compañía representa un avance significativo en la fabricación de smartphones. La planta trabajará de manera completamente autónoma las 24 horas del día, sin necesidad de personal humano directo [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Xiaomi acaba de anunciar su último movimiento para la fabricación de productos tecnológicos. Se trata de la Xiaomi Smart Factory en Changping, la nueva fábrica de la compañía representa un avance significativo en<a href="https://www.enter.co/smartphones/redmi-a3-el-nuevo-celular-de-xiaomi-por-menos-de-400mil-pesos-precio-y-disponibilidad/" target="_blank" rel="noopener"> la fabricación de smartphones</a>. La planta trabajará de manera completamente autónoma las 24 horas del día, sin necesidad de personal humano directo en el proceso.</span><span id="more-558948"></span></p>
<p><span style="font-weight: 400;">Con una inversión de unos 329 millones de dólares, la fábrica ocupa una superficie de 81.000 metros cuadrados y está diseñada para optimizar la producción de <a href="https://www.enter.co/chips-bits/gadgets/redmi-pad-pro-la-nueva-tablet-gama-media-de-xiaomi-con-bateria-de-10-000-mah-ya-esta-en-colombia/" target="_blank" rel="noopener">dispositivos móviles</a>. Con tecnología avanzada y sistemas de inteligencia artificial, la Smart Factory gestiona todo el ciclo de producción, desde la recepción de materias primas hasta el ensamblaje final de los smartphones.</span></p>
<p><span style="font-weight: 400;">Las máquinas podrán cooperar entre sí, además de que cuentan con máquinas inteligentes que supervisan la calidad de producción que también fueron creadas por Xiaomi. Todas las máquinas que operan en la Xiaomi Smart Factory Changing están en la capacidad de realizar todos los procesos libres de polvo. </span></p>
<p><span style="font-weight: 400;">La capacidad de la fábrica para operar sin intervención humana directa resalta un cambio importante hacia la automatización industrial. Esto no solo mejora la eficiencia en la fabricación, sino que también asegura una calidad consistente en los productos finales. Además, la capacidad de producción de un teléfono móvil por segundo resalta la velocidad y la capacidad de respuesta de la instalación.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/las-acciones-de-nvidia-se-empezaran-a-vender-en-colombia-donde-comprarlas/" target="_blank" rel="noopener">Las acciones de Nvidia, la empresa más valiosa del mundo, se empezarán a vender en Colombia: dónde comprarlas</a></h3>
<p><span style="font-weight: 400;">Lei Jun, CEO de Xiaomi, fue el encargado de dar el anuncio de esta nueva fábrica, quien mencionó que la Smart Factory no solo representa <a href="https://www.enter.co/chips-bits/gadgets/asi-es-el-primer-vehiculo-100-electrico-de-xiaomi-presentado-en-el-mwc-que-lo-hace-especial/" target="_blank" rel="noopener">el futuro de la manufactura</a> de smartphones, sino que también “refuerza el compromiso de Xiaomi con la excelencia en la automatización y la producción eficiente”, explicó.</span></p>
<p><span style="font-weight: 400;">La nueva fábrica ya fue certificada como referente nacional de fabricación inteligente en China, y es que la Smart Factory está en la capacidad de producir unos 10 millones de flagships al año. De hecho, la compañía explicó que <a href="https://www.enter.co/smartphones/xiaomi-anuncia-cinco-nuevos-celulares-gama-media-los-redmi-note-13-llegan-con-lentes-de-108-mp-y-200-mp/" target="_blank" rel="noopener">su próxima generación</a> de plegables, los Xiaomi MIX Fold 4 y primer plegable tipo concha, el Xiaomi MIX Flip fueron creados allí. </span></p>
<p><span style="font-weight: 400;">Desde la gestión autónoma de inventarios hasta la optimización de la cadena de suministro, la Smart Factory está diseñada para adaptarse dinámicamente a las demandas del mercado y ajustar la producción en tiempo real. La capacidad de la fábrica para operar las 24 horas del día durante todo el año sin pausas demuestra no solo su capacidad tecnológica, sino también su compromiso con la sostenibilidad y la eficiencia operativa. </span></p>
<p><em>Imagen: <a href="https://www.google.com/url?sa=i&amp;url=https%3A%2F%2Fwww.mundoxiaomi.com%2Fmoviles%2Fempezaron-coche-seguiran-moviles-tu-proximo-xiaomi-estara-fabricado-al-100-robots&amp;psig=AOvVaw3iFX-VMp1mVYbth9J0eFl2&amp;ust=1720632896641000&amp;source=images&amp;cd=vfe&amp;opi=89978449&amp;ved=0CBIQjRxqFwoTCLDry5e_mocDFQAAAAAdAAAAABAS" target="_blank" rel="noopener">Xiaomi</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Los robots también sufren explotación laboral? Reportan el primero que se “suicida”</title>
		<link>https://www.enter.co/cultura-digital/el-popurri/los-robots-tambien-sufren-explotacion-laboral-reportan-el-primero-que-se-suicida/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Thu, 27 Jun 2024 21:00:45 +0000</pubDate>
				<category><![CDATA[El Popurrí]]></category>
		<category><![CDATA[Corea del Sur]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[robots empleados]]></category>
		<category><![CDATA[Suicidio]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=556769</guid>

					<description><![CDATA[Para nadie es un secreto que los robots autónomos serán parte del futuro, de hecho, ya existen varios de ellos en diferentes países, como Corea del Sur, haciendo múltiples tareas. La idea estas máquinas autónomas es que disminuyan las labores de los humano o simplifiquen las tareas diarias, pero ¿están preparados para aceptar altas cargas [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Para nadie es un secreto que los robots autónomos serán parte del futuro, de hecho, ya existen varios de ellos en diferentes países, como Corea del Sur, haciendo múltiples tareas. La idea estas máquinas autónomas es que disminuyan las labores de los humano o simplifiquen las tareas diarias, pero ¿están preparados para aceptar altas cargas de trabajo? Reportan el primero que se &#8220;suicida&#8221;. </span></p>
<p><span id="more-556769"></span></p>
<p><span style="font-weight: 400;">La noticia del primer robot que se “suicida” se tomó los principales titulares en Corea del Sur el paso 25 de junio, luego de que un empleado robótico del ayuntamiento de Gumi apareciera totalmente desconectado. Claro, lo primero que podríamos pensar es que simplemente algún humano intervino en su desconexión, pero lo cierto es que todos los empleados del ayuntamiento querían el robot empleado. </span></p>
<p><span style="font-weight: 400;">El ayuntamiento de Gumi se está tomando muy enserio “la vida” de los robots, tanto así que abrieron una investigación formal para determinar las causas del deceso de este empleado. El robot fue encontrado al pie de una escalera sobre las 4 de la tarde del jueves 20 de junio totalmente inerte. Al parecer, fue el mismo robot el que se lanzó desde la parte superior de la escalera. </span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/el-popurri/robots-comestibles-la-solucion-a-problemas-alimenticios/" target="_blank" rel="noopener">Robots comestibles: ¿la solución a problemas alimenticios?</a></h3>
<p><span style="font-weight: 400;">Justo antes de su caída, los testigos vieron al robot &#8220;girando en círculos como si hubiera algo allí&#8221;, añadió uno de los funcionarios en la declaración. Al igual que los empleados humanos, el robot trabajaba entre 9 y 18 horas diarias haciendo labores varias con las que ayudaba a los residentes con algunas tareas administrativas. Incluso, tenía su propia tarjeta de funcionario, “él oficialmente era parte del ayuntamiento, era uno de nosotros ”, añadió el empleado.</span></p>
<p><span style="font-weight: 400;">Este robot, creado por la compañía estadounidense Bears Robotics, tenía una gran diferencia respecto a otros robots de su tipo, no solo trabajaba en un nivel, sino que podría llamar él solo el ascensor y pasar de un piso a otro sin problema. El empleado robótico llevaba ya casi un año trabajando en el ayuntamiento, por lo que el hecho de “haber querido bajar las escaleras” fue descartado, pues sabía usar el ascensor a la perfección. </span></p>
<p><span style="font-weight: 400;">Por ahora, continúan haciendo la investigación para verificar si fue el mismo robot el que “acabo con su vida” y si las razones estarían relacionadas con la alta carga laboral que manejaba. El ayuntamiento argumentó que no tienen planes de adquirir otro empleado robótico por el momento. </span></p>
<p><em>Imagen: <a class="BkSVh FEdrY SfGU7 ZR5jm jQEvX ZR5jm" href="https://unsplash.com/es/@helloimnik" target="_blank" rel="noopener">Nik</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Chery, la compañía china de carros, presenta Mornine: el nuevo robot bípedo con IA</title>
		<link>https://www.enter.co/chips-bits/chery-la-compania-china-de-carros-presenta-mornine-el-nuevo-robot-bipedo-con-ia/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 21 May 2024 21:30:57 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Robot Humanoide]]></category>
		<category><![CDATA[robótica]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=554975</guid>

					<description><![CDATA[El retiro del icónico robot bípedo Atlas de Boston Dynamics ha generado un gran interés tanto en la industria tecnológica como en el público general, planteando interrogantes sobre el futuro de la tecnología robótica. Sin embargo, mientras Atlas se despide, una nueva esperanza emerge con la introducción de Mornine, el robot bípedo con Embodied AI, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">El retiro del icónico robot bípedo Atlas de Boston Dynamics ha generado un gran interés tanto en la industria tecnológica como en el público general, planteando interrogantes sobre <a href="https://www.enter.co/chips-bits/apple-tv-sera-un-brazo-robotico-con-camara-integrada-que-sigue-movimientos-en-videollamadas/" target="_blank" rel="noopener">el futuro de la tecnología robótica</a>. Sin embargo, mientras Atlas se despide, una nueva esperanza emerge con la introducción de Mornine, el robot bípedo con Embodied AI, desarrollado por Chery, la compañía de carros y Aimoga, empresa tecnológica.</span><span id="more-554975"></span></p>
<p><span style="font-weight: 400;">Mornine está diseñado para llenar el vacío dejado por Atlas, destacándose por su escalabilidad y rentabilidad. A diferencia del sistema hidráulico de Atlas, Mornine es impulsado por motores eléctricos y funciona con batería, lo que lo hace más viable para la producción y comercialización a gran escala. Aunque puede no igualar el rendimiento de Atlas en terrenos difíciles, Mornine sobresale en su diseño altamente biomimético y su capacidad para interactuar <a href="https://www.enter.co/cultura-digital/ciencia/asi-es-la-nueva-piel-electronica-para-robot-permitira-que-las-maquinas-hacer-cosas-mas-precisas-como-las-personas/" target="_blank" rel="noopener">de manera realista con los humanos.</a></span></p>
<p><span style="font-weight: 400;">El rostro de Mornine está elaborado con material biomimético de silicona, proporcionando efectos visuales y sensaciones táctiles que <a href="https://www.enter.co/chips-bits/un-robot-que-te-persigue-por-la-casa-el-nuevo-proyecto-en-el-que-esta-trabajando-apple/" target="_blank" rel="noopener">imitan la piel humana</a>. Además, puede simular movimientos musculares faciales, permitiendo expresiones como hablar, sonreír y abrir la boca de manera convincente.</span></p>
<p><span style="font-weight: 400;">Equipado con modelos de lenguaje grandes (LLM), Mornine puede comprender y generar lenguaje natural, interpretando órdenes verbales o escritas de humanos y traduciéndolas en acciones específicas. Esta capacidad se complementa con el amplio conocimiento de la marca automotriz de Chery, permitiéndole responder preguntas detalladas y proporcionar información precisa sobre productos automotrices.</span></p>
<p><img decoding="async" class="alignnone wp-image-554977 size-full" src="https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM.jpeg" alt="robot" width="1280" height="720" srcset="https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM.jpeg 1280w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-300x169.jpeg 300w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-1024x576.jpeg 1024w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-768x432.jpeg 768w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-1104x621.jpeg 1104w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-366x205.jpeg 366w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-534x300.jpeg 534w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-165x92.jpeg 165w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-249x140.jpeg 249w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-232x130.jpeg 232w, https://www.enter.co/wp-content/uploads/2024/05/WhatsApp-Image-2024-05-21-at-12.13.13-PM-344x193.jpeg 344w" sizes="(max-width: 1280px) 100vw, 1280px" /></p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/robo-hood-el-robot-que-pinta-sobre-lienzo-las-obras-de-arte-que-tu-imagines/" target="_blank" rel="noopener">Robo Hood, el robot que pinta sobre lienzo las obras de arte que tú imagines</a></h3>
<h2><b>Tres etapas de evolución para diversas aplicaciones</b></h2>
<p><span style="font-weight: 400;">Mornine está diseñado para evolucionar en tres etapas, cada una introduciendo nuevas características y expandiendo sus horizontes de aplicación:</span></p>
<p><b>Etapa inicial: </b><span style="font-weight: 400;">proveedor de información y asesor de productos</span></p>
<p><span style="font-weight: 400;">En entornos como centros de ventas de automóviles, Mornine utiliza su base de conocimientos para responder preguntas de clientes y ofrecer recomendaciones de productos a través de interfaces de voz o pantalla. Esta función mejora la eficiencia del servicio y eleva la satisfacción del cliente.</span></p>
<p><b>Segunda etapa: </b><span style="font-weight: 400;">reconocimiento visual y navegación autónoma</span></p>
<p><span style="font-weight: 400;">Mornine integra capacidades avanzadas como el reconocimiento visual y la navegación autónoma, guiando a los clientes a ubicaciones específicas y utilizando sus brazos robóticos para demostraciones y operaciones físicas. Esto enriquece la experiencia del usuario mediante interacciones más realistas.</span></p>
<p><b>Tercera etapa: </b>asistente domiciliario integral</p>
<p><span style="font-weight: 400;">En su etapa final, Mornine se convierte en un asistente domiciliario que maneja consultas de rutina, brinda recordatorios de vida, ayuda en la gestión de la salud, apoya el cuidado de personas mayores y la educación infantil, y realiza tareas domésticas como limpiar y cocinar.</span></p>
<p><em>Imágenes:<a href="https://chery.com.uy/sobreChery" target="_blank" rel="noopener"> Chery</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Un robot que te persigue por la casa: el nuevo proyecto en el que está trabajando Apple</title>
		<link>https://www.enter.co/chips-bits/un-robot-que-te-persigue-por-la-casa-el-nuevo-proyecto-en-el-que-esta-trabajando-apple/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Thu, 04 Apr 2024 17:00:50 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[Optimus]]></category>
		<category><![CDATA[robot]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=552959</guid>

					<description><![CDATA[Los últimos meses no han sido tan buenos para Apple, desde donde han presentado disminución en la venta de celulares y han tenido que enfrentarse a varios problemas legales. Sin embargo, ¡el bagre no se rinde! La compañía continúa buscando nuevos negocios para diversificar su oferta y no, no hablamos del tan esperado carro. Se [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Los últimos meses no han sido tan buenos para Apple, desde donde han presentado disminución en la venta de celulares y han tenido que enfrentarse a varios problemas legales. Sin embargo, ¡el bagre no se rinde! La compañía continúa buscando nuevos negocios para diversificar su oferta y no, no hablamos del tan esperado carro. <a href="https://www.enter.co/chips-bits/asi-reacciona-robot-humanoide-ante-humano-que-le-pide-algo-de-comer-a-donde-llegaran-openai-y-figure-ia/" target="_blank" rel="noopener">Se trata de un robot doméstico. </a></span><span id="more-552959"></span></p>
<p><span style="font-weight: 400;">La información llegó por parte del conocido experto y periodista de Bloomberg, Mark Gurman, quien, <a href="https://www.bloomberg.com/news/articles/2024-04-03/apple-explores-home-robots-after-abandoning-car-efforts" target="_blank" rel="noopener">en su blog dentro del portal</a>, explicó que los de Cupertino estarían trabajando en un nuevo robot. De ser así, el nuevo robot de Apple llegaría a competir directamente con Optimus, el humanoide de Tesla. </span></p>
<p><span style="font-weight: 400;">Y es que, según el informe, la compañía estaría trabajando en un robot doméstico, el cual sigue a las personas por toda la casa cuando sea necesario. De esta forma, puede realizar tareas simples o un poco complejas, según lo necesite el usuario. Eso sí, el robot de Apple, del cual aún no conocemos su nombre, estaría apenas en etapa de desarrollo. </span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/emo-el-robot-que-imita-muecas-y-sonrisa-de-personas-solo-con-mirarlas-es-eticamente-correcto/" target="_blank" rel="noopener">Emo, el robot que imita muecas y sonrisa de personas solo con mirarlas, ¿es éticamente correcto?</a></h3>
<p><span style="font-weight: 400;">Si bien son intrigantes, estos proyectos de robótica parecen ser más una exploración teórica que una hoja de ruta inminente en este momento.  De acuerdo con fuentes internas de la compañía, los proyectos de robótica en los que ya trabajaba Apple, como drones autónomos y asistentes del hogar, fueron abandonados debido a obstáculos técnicos. Lo mismo ocurrió con el Titán, el esperado carro en el que estaban trabajando los de Cupertino y que finalmente dejaron a un lado. </span></p>
<p><span style="font-weight: 400;">En total, Apple estaría trabajando en dos iniciativas principales que están lideradas por </span><span style="font-weight: 400;">los equipos de ingeniería de hardware e <a href="https://www.enter.co/cultura-digital/ciencia/ingeniero-colombiano-logro-comunicacion-entre-enjambre-de-robots-a-traves-de-feromonas-artificiales-en-bruselas/" target="_blank" rel="noopener">inteligencia artificial</a>. El primero se trata de un robot totalmente móvil que puede seguir de forma autónoma a las personas por su casa. El segundo se centra en un dispositivo de mesa con un panel de visualización integrado. </span></p>
<p><span style="font-weight: 400;">Por ahora, son pocos los detalles que se tienen de estos nuevos robots en los que están trabajando los de Apple. Habrá que esperar si el robot que persigue personas y el dispositivo de mesa si se harán realidad o quedarán en el imaginario como pasó con el carro de la compañía. </span></p>
<p><em>Imagen: Pavel Danilyuk</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Emo, el robot que imita muecas y sonrisa de personas solo con mirarlas, ¿es éticamente correcto?</title>
		<link>https://www.enter.co/chips-bits/emo-el-robot-que-imita-muecas-y-sonrisa-de-personas-solo-con-mirarlas-es-eticamente-correcto/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 01 Apr 2024 19:00:06 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[emo]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=552766</guid>

					<description><![CDATA[El laboratorio de ingeniería de Columbia lleva años desafiando la expresión facial humana por medio de sus robots. Emo, uno de sus prototipos, ha alcanzado el nivel de anticipar e imitar en segundos la sonrisa de cualquier persona, solo con mirarla fijamente. ¿Es éticamente correcto llegar a este punto? ¿Para qué servirá en el futuro? [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El laboratorio de ingeniería de <a href="https://www.youtube.com/watch?v=pWTTzR_wXuQ" target="_blank" rel="noopener">Columbia lleva años desafiando la expresión facial humana</a> por medio de sus robots. Emo, uno de sus prototipos, ha alcanzado el nivel de anticipar e imitar en segundos la sonrisa de cualquier persona, solo con mirarla fijamente. ¿Es éticamente correcto llegar a este punto? ¿Para qué servirá en el futuro?</p>
<p><iframe title="YouTube video player" src="https://www.youtube.com/embed/pWTTzR_wXuQ?si=kRozkEoGVnBbu4G9" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p><span id="more-552766"></span></p>
<p>El estudio publicado en Science Robotics presenta a Emo, un robot que anticipa las expresiones faciales y las ejecuta simultáneamente con un humano. Copiar la sonrisa de una persona solo le toma 840 milisegundos, antes de que la persona sonría, haciendo el gesto simultáneamente con ella. La corporación dueña, es consciente de las consideraciones éticas asociadas con esta nueva tecnología.</p>
<p>El Creative Machines Lab de Columbia Engineering lleva cinco años trabajando en estos desafíos. El autor principal del estudio es Yuhang Hu, un estudiante de doctorado en Ingeniería de Columbia en el laboratorio de Hod Lipson. El equipo del Hod Lipson es referente en investigación y líder en los campos de la inteligencia artificial (IA) y robótica.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/especiales/dev/ai/aterradora-asi-es-la-nueva-ia-de-openai-clona-tu-voz-escuchandote-15-segundos/" target="_blank" rel="noopener"> ¡Aterradora! Así es la nueva IA de OpenAI, clona tu voz escuchandote 15 segundos</a></h3>
<p>Al principio la mímica facial salía retrasada y parecía falsa. Se requería inferir correctamente el estado emocional del ser humano para una ejecución oportuna. Primero diseñaron mecánicamente una cara robótica expresivamente versátil que involucra hardware y mecanismos de actuación complejos. Este, es capaz de generar expresiones que parecen naturales, oportunas y genuinas.</p>
<p>El robot Emo es un gran logro. Tiene una cara robótica revestida de silicio que establece contacto visual y utiliza dos modelos de inteligencia artificial para anticipar y replicar la sonrisa de una persona; un avance importante en los robots que predicen con precisión las expresiones faciales humanas, mejoran las interacciones y construyen confianza entre humanos y máquinas.</p>
<p>Emo es una cabeza humana con un rostro equipado con 26 actuadores que permiten una amplia gama de expresiones matizadas. Está cubierto con una suave piel de silicona con un sistema de fijación magnético, lo que permite una fácil personalización y un rápido mantenimiento. Para lograr interacciones más realistas, los investigadores integraron cámaras de alta resolución dentro de la pupila de cada ojo, lo que permitió a Emo establecer contacto visual, crucial para la comunicación no verbal.</p>
<p>Para entrenarlo, los investigadores pusieron a Emo frente a la cámara y le permitieron realizar movimientos aleatorios. Después de unas horas, el robot aprendió la relación entre sus expresiones faciales y los comandos motores, de forma muy parecida a como los humanos practican las expresiones faciales en el espejo; “automodelado”.</p>
<p>El equipo desarrolló dos modelos de IA: uno que predice las expresiones faciales humanas analizando cambios sutiles en la cara del objetivo y otro que genera comandos motores utilizando las expresiones faciales correspondientes.</p>
<p>Al reproducir los vídeos de expresiones faciales humanas, Emo las observó cuadro por cuadro. “Creo que predecir con precisión las expresiones faciales humanas es una revolución en HRI. En el futuro, cuando interactúes con un robot, éste observará e interpretará tus expresiones faciales, como una persona real, como retroalimentación”, explica Yuhang Hu.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/como-te-sientes-hume-ia-te-lo-dice-y-descubre-emociones-ocultas-asi-la-puedes-probar/" target="_blank" rel="noopener">¿Cómo te sientes? Hume IA te lo dice y descubre emociones ocultas: Así la puedes probar</a></h3>
<p>Los investigadores ahora están trabajando para integrar la comunicación verbal, utilizando un modelo de lenguaje grande como ChatGPT en Emo. A medida que los robots se vuelven más capaces de comportarse como humanos,</p>
<p>&#8220;Aunque esta capacidad presagia una gran cantidad de aplicaciones positivas, que van desde asistentes domésticos hasta ayudas educativas, corresponde a los desarrolladores y usuarios ejercer prudencia y consideraciones éticas. Robots que puedan integrarse perfectamente en nuestra vida diaria, ofreciendo compañía, asistencia e incluso empatía”, explica Sally Scapa, Profesor de Innovación en el Departamento de Ingeniería Mecánica en Columbia.</p>
<p>Imagen:  <em>Cortesía de Creative Machines Lab</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ingeniero colombiano logró comunicación entre enjambre de robots con feromonas artificiales en Bruselas</title>
		<link>https://www.enter.co/cultura-digital/ciencia/ingeniero-colombiano-logro-comunicacion-entre-enjambre-de-robots-a-traves-de-feromonas-artificiales-en-bruselas/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 12 Mar 2024 19:00:49 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[Universidad Nacional]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=552055</guid>

					<description><![CDATA[Un ingeniero en automatización industrial de la Universidad Nacional ha alcanzado un hito significativo al simular la comunicación entre un enjambre de robots a través de feromonas artificiales. Inspirándose en la estigmergia observada en animales como hormigas, abejas y termitas, este avance prometedor tiene implicaciones importantes para la industria, con posibles aplicaciones en la clasificación [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Un ingeniero en automatización industrial de la<a href="https://unal.edu.co/" target="_blank" rel="noopener"> Universidad Nacional ha alcanzado un hito significativo al simular la comunicación entre un enjambre</a> de robots a través de feromonas artificiales. Inspirándose en la estigmergia observada en animales como hormigas, abejas y termitas, este avance prometedor tiene implicaciones importantes para la industria, con posibles aplicaciones en la clasificación de objetos en bodegas y granjas.</p>
<p><span id="more-552055"></span></p>
<p>La investigación, liderada por David Garzón Ramos, magíster en Ingeniería y Automatización Industrial de la Universidad Nacional de Colombia, se llevó a cabo en colaboración con Muhammad Salman y Mauro Birattari en IRIDIA, el laboratorio para el desarrollo de Inteligencia Artificial de la Universidad Libre de Bruselas, entre 2020 y 2022.</p>
<p>La simulación de la comunicación en el enjambre de robots se logró mediante la emisión de feromonas artificiales a través de luz ultravioleta. Esta técnica novedosa supera las limitaciones de métodos anteriores que utilizaban alcoholes, ceras o luz fosforescente. Según Garzón, la luz ultravioleta ofrece precisión sin alterar los movimientos de los robots, a diferencia del alcohol, que puede evaporarse y afectar las llantas de los dispositivos.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/cultura-digital/ciencia/astronomo-colombinano-creo-camara-para-tomar-fotos-del-sol-que-permite-ver-hasta-su-corona-solar/" target="_blank" rel="noopener"> Astrónomo colombiano creó cámara para tomar fotos del Sol que permite ver hasta su corona solar</a></h3>
<p>La &#8220;colmena&#8221; robótica, compuesta por pequeños robots del tamaño de la palma de la mano, utiliza un reflector blanco que emite luz ultravioleta hacia el suelo durante 40 segundos. Mediante cámaras instaladas en la base de los robots, se interpreta la luz magenta resultante, proporcionando información vital como dirección, ubicación y objetos en el entorno.</p>
<p>Según la agencia de noticias UNAL, lo más destacado de este proyecto es la implementación de inteligencia artificial (IA) y aprendizaje automático para interpretar automáticamente la información recopilada. Garzón enfatiza que esta capacidad permite que los robots realicen tareas específicas sin intervención humana adicional, optimizando la eficiencia del enjambre.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/chips-bits/gadgets/ni-siquiera-la-gama-mas-alta-de-samsung-tiene-tan-buenas-caracteristicas-asi-es-tomi-8-el-robot-creado-por-un-colombiano/" target="_blank" rel="noopener"> “Ni la gama más alta de Samsung tiene tan buenas características”: Así es TOMi 8 el robot creado por un colombiano</a></h3>
<p>La evaluación de las feromonas artificiales incluyó tareas clave, como esparcir feromonas con luz ultravioleta, distinguir entre luz ultravioleta y luz blanca, tomar decisiones basadas en colores para identificar zonas con mayores recompensas, y seleccionar puntos de agregación mientras cruzan puertas restringidas con datos de feromonas.</p>
<p>Este avance tecnológico, con sus aplicaciones potenciales en el sector industrial colombiano, podría revolucionar tareas como el trabajo en bodegas y el almacenamiento de objetos. Garzón también destaca la versatilidad del sistema para entornos agrícolas controlados, donde la luz del sol puede ser filtrada por tejados, evitando posibles confusiones causadas por la luz ultravioleta natural.</p>
<p>Imagen: <em>Agencia UNAL</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Figure 01: el primer robot humanoide que aprende a realizar las actividades de los humanos al ver cómo las hacen</title>
		<link>https://www.enter.co/chips-bits/figure-01-el-primer-robot-humanoide-que-aprende-a-realizar-las-actividades-de-los-humanos-al-ver-como-las-hacen/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Mon, 08 Jan 2024 15:30:26 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[aplicaciones de inteligencia artificial]]></category>
		<category><![CDATA[Figure 01]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Robot Humanoide]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=549496</guid>

					<description><![CDATA[El mundo de la tecnología no se detiene tal y como lo vimos en el 2023 con GPT en materia de inteligencia artificial o con Optimus Gen 2 en términos de robótica, y el 2024 pinta aún más prometedor. Esta vez, no hablamos de Elon Musk ni OpenAI; se trata de Figure AI, una empresa [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">El mundo de la tecnología no se detiene tal y como lo vimos en el 2023 con GPT en materia de inteligencia artificial o con <a href="https://www.enter.co/chips-bits/tesla-anuncia-el-nuevo-optimus-gen-2-un-robot-cada-vez-mas-humano/" target="_blank" rel="noopener">Optimus Gen 2</a> en términos de robótica, y el 2024 pinta aún más prometedor. Esta vez, no hablamos de Elon Musk ni <a href="https://www.enter.co/especiales/dev/ai/gpt-store-de-openai-sera-lanzada-la-proxima-semana-esto-encontraras/" target="_blank" rel="noopener">OpenAI</a>; se trata de Figure AI, una empresa de robótica de inteligencia artificial que acaba de poner un nuevo hito en el desarrollo de robots humanoides con Figure 01. </span><span id="more-549496"></span></p>
<p><span style="font-weight: 400;">Brett Adcock, fundador de la compañía, anunció que su robot humanoide había demostrado aprender de los humanos al verlos. A través de su cuenta oficial de X (anteriormente Twitter) , el CEO de Figure AI compartió un video donde se observa a Figure 01 preparando una taza de café. </span></p>
<blockquote class="twitter-tweet" data-media-max-width="560">
<p dir="ltr" lang="en">Figure-01 has learned to make coffee &#x2615;&#xfe0f;</p>
<p>Our AI learned this after watching humans make coffee</p>
<p>This is end-to-end AI: our neural networks are taking video in, trajectories out</p>
<p>Join us to train our robot fleet: <a href="https://t.co/egQy3iz3Ky">https://t.co/egQy3iz3Ky</a><a href="https://t.co/Y0ksEoHZsW">pic.twitter.com/Y0ksEoHZsW</a></p>
<p>— Brett Adcock (@adcock_brett) <a href="https://twitter.com/adcock_brett/status/1743987597301399852?ref_src=twsrc%5Etfw">January 7, 2024</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script><br />
<span style="font-weight: 400;">Aunque la tarea que está realizando el robot es bastante sencilla, supone un gran avance en <a href="https://www.enter.co/cultura-digital/videojuegos/nos-ganaron-los-robots-square-enix-asegura-que-desarrollara-juegos-utilizando-de-manera-agresiva-la-ia/" target="_blank" rel="noopener">el desarrollo de robots</a> humanoides. Adcock explicó que Figure 01 logró preparar una taza de café en una cafetera luego de ver cómo lo hacía un humano. “</span><span style="font-weight: 400;">¿Por qué es esto tan importante? La razón por la que esto es tan innovador es  porque si se pueden obtener datos humanos para una aplicación (preparar café, doblar la ropa, trabajar en un almacén, etc.), luego se puede entrenar un sistema de IA de un extremo a otro en la Figura 01”. Así lo explicó el CEO de Figure AI en su publicación.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/tesla-anuncia-el-nuevo-optimus-gen-2-un-robot-cada-vez-mas-humano/" target="_blank" rel="noopener">Tesla anuncia el nuevo Optimus Gen 2: un robot cada vez más humano</a></h3>
<p><span style="font-weight: 400;">Y es que, ya hemos visto a otros robots humanoides realizando algunas actividades como alzar cajas, entonces, ¿cuál es la diferencia? Hasta el momento, las empresas que se dedican al desarrollo de estos robots, han logrado que estos realicen actividades a través de la automatización. Por esta misma razón, se enfocan en unas tareas específicas<a href="https://www.enter.co/cultura-digital/ciencia/cientificos-crearon-robots-biologicos-para-que/" target="_blank" rel="noopener"> para “entrenar” al robot. </a></span></p>
<p><span style="font-weight: 400;">Por su parte, los Figure 01 serían capaces de dedicarse a varias labores, solo tendrían que observar cómo las realizan los humanos. Además, los robots son capaces de detectar y corregir los errores que estén cometiendo. Esto va de la mano con el objetivo del fundador de Figure AI, quien planea crear robots humanoides que trabajen al lado de los humanos, realizando sus mismas labores. </span></p>
<p><em>Imagen: <a href="https://www.figure.ai/" target="_blank" rel="noopener">Figure AI</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Tesla anuncia el nuevo Optimus Gen 2: un robot cada vez más humano</title>
		<link>https://www.enter.co/chips-bits/tesla-anuncia-el-nuevo-optimus-gen-2-un-robot-cada-vez-mas-humano/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Fri, 15 Dec 2023 22:00:20 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Elon Musk]]></category>
		<category><![CDATA[humanoide]]></category>
		<category><![CDATA[Optimus]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[tesla]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=548832</guid>

					<description><![CDATA[Tesla ha sorprendido nuevamente al público al presentar la segunda generación de su robot humanoide, Optimus Gen 2. Después de revelar el prototipo Bumblebee en septiembre de 2022, que posteriormente rediseñó y rebautizó como Optimus en marzo de 2023, la compañía ahora muestra importantes avances en esta última versión. El vídeo de presentación destaca las [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Tesla <a href="https://www.enter.co/empresas/colombia-digital/optimus-el-humanoide-de-tesla-se-empezara-a-producir-en-el-2023-segun-elon-musk/" target="_blank" rel="noopener">ha sorprendido nuevamente</a> al público al presentar la segunda generación de su robot humanoide, Optimus Gen 2. Después de revelar el prototipo Bumblebee en septiembre de 2022, que posteriormente rediseñó y rebautizó como Optimus en marzo de 2023, la compañía ahora muestra importantes avances en esta última versión.</span><span id="more-548832"></span></p>
<p><span style="font-weight: 400;">El vídeo de presentación destaca las mejoras clave en el Optimus Gen 2, enfocándose especialmente en sus manos, donde Tesla ha implementado nuevos &#8220;actuadores y sensores&#8221;. <a href="https://www.enter.co/cultura-digital/entretenimiento/netflix-lanzara-un-nuevo-anime-de-gundam-que-traera-los-robots-al-mundo-real-usando-unreal-engine-5/" target="_blank" rel="noopener">La destreza de este robot</a> se evidencia al levantar con delicadeza un huevo colocado en una mesa, demostrando la capacidad de aplicar diferentes tipos de presión sin dañar la cáscara.</span></p>
<p><span style="font-weight: 400;">Además de las mejoras en las manos, Tesla afirma que ha incrementado la velocidad de caminar del robot en un 30 %, logrando una mayor flexibilidad en el cuello para movimientos de cabeza más naturales. Asimismo, se ha reducido el peso en más de 10 kg sin comprometer el rendimiento, lo que mejora el equilibrio y permite que el robot realice actividades como una sentadilla.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/optimus-el-robot-humanoide-de-elon-musk-ya-camina-coge-cosas-y-memoriza/" target="_blank" rel="noopener">Optimus, el robot humanoide de Elon Musk ya camina, coge cosas y memoriza</a></h3>
<p><span style="font-weight: 400;">Elon Musk, CEO de Tesla, ha expresado su confianza en que Optimus será fundamental para el futuro de la compañía, llegando a prever una demanda potencial de &#8220;entre 10 y 20 mil millones de unidades&#8221; en los próximos años. Sin embargo, el foco no solo está en <a href="https://www.enter.co/cultura-digital/ciencia/cientificos-crearon-robots-biologicos-para-que/" target="_blank" rel="noopener">el diseño y rendimiento del robot,</a> sino también en la inteligencia artificial que guiará sus movimientos.</span></p>
<p><span style="font-weight: 400;">A pesar de los notables avances presentados, hay cierta incertidumbre en torno al tiempo que podría llevar lanzar este robot al mercado. Considerando los desafíos enfrentados por el sistema de conducción autónoma total en los vehículos de Tesla, la implementación de la inteligencia artificial en Optimus podría requerir más tiempo para alcanzar los estándares deseados.</span></p>
<p><span style="font-weight: 400;">Aunque Elon Musk no ha proporcionado detalles sobre la disponibilidad comercial del Optimus Gen 2, se especula que Tesla planea utilizarlo en sus operaciones de producción antes de considerar su lanzamiento al público. Aunque persisten incógnitas, como la altura del robot o algunas funcionalidades<a href="https://www.enter.co/cultura-digital/redes-sociales/grok-el-nuevo-chatbot-sarcastico-e-ironico-como-elon-musk-llego-a-x-twitter/" target="_blank" rel="noopener"> prometidas por Musk,</a> como la capacidad de transferir su personalidad al robot, la presentación del Optimus Gen 2 muestra el continuo interés de Tesla en la robótica.</span></p>
<blockquote class="twitter-tweet" data-media-max-width="560">
<p dir="ltr" lang="en">There’s a new bot in town &#x1f916;</p>
<p>Check this out (until the very end)!<a href="https://t.co/duFdhwNe3K">https://t.co/duFdhwNe3K</a> <a href="https://t.co/8pbhwW0WNc">pic.twitter.com/8pbhwW0WNc</a></p>
<p>— Tesla Optimus (@Tesla_Optimus) <a href="https://twitter.com/Tesla_Optimus/status/1734756150137225501?ref_src=twsrc%5Etfw">December 13, 2023</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p><em>Imagen: Tesla</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Científicos crearon robots biológicos ¿Para qué?</title>
		<link>https://www.enter.co/cultura-digital/ciencia/cientificos-crearon-robots-biologicos-para-que/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Fri, 01 Dec 2023 19:00:51 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[Anthrobots]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[robots biológicos]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=548312</guid>

					<description><![CDATA[Científicos de la Universidad Tufts han creado robots biológicos a partir de células traqueales humanas. Los robots llamados Anthrobots son multicelulares, que varían en tamaño desde el ancho de un cabello humano hasta la punta de un lápiz afilado. ¿Para qué sirven? Según la universidad estadounidense, los robots pueden moverse a través de una superficie [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Científicos de la <a href="https://now.tufts.edu/2023/11/30/scientists-build-tiny-biological-robots-human-cells" target="_blank" rel="noopener">Universidad Tufts</a> han creado robots biológicos a partir de células traqueales humanas. Los robots llamados Anthrobots son multicelulares, que varían en tamaño desde el ancho de un cabello humano hasta la punta de un lápiz afilado. ¿Para qué sirven?</p>
<p><span id="more-548312"></span></p>
<p>Según la universidad estadounidense, los robots pueden moverse a través de una superficie y se ha descubierto que estimulan el crecimiento de neuronas en una región dañada en una placa de laboratorio.</p>
<p>Los robots fueron creados para autoensamblarse y demostraron tener un notable efecto curativo en otras células. El trabajo surge de investigaciones anteriores en los laboratorios de Michael Levin, profesor de biología de Vannevar Bush, y Josh Bongard de la Universidad de Vermont, en las que crearon robots biológicos multicelulares a partir de células de embriones de rana llamados Xenobots, capaces de navegar por pasillos, recolectar material, registrando información, curándose a sí mismos de una lesión e incluso replicando durante algunos ciclos por sí solos.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/este-es-el-raro-sistema-planetario-que-revelaria-el-origen-y-evolucion-del-nuestro/" target="_blank" rel="noopener">Este es el raro ‘sistema planetario’ que revelaría el origen y evolución del nuestro</a></h3>
<p>En ese momento, los investigadores no sabían si estas capacidades dependían de que derivaran de un embrión de anfibio, o si los biobots podrían construirse a partir de células de otras especies.</p>
<p>Los científicos descubrieron que se pueden crear bots a partir de células humanas adultas sin ninguna modificación genética y demostró que tienen algunas capacidades más allá de lo observado con los Xenobots.</p>
<h2>¿Cómo se crean los antropobots?</h2>
<p>Cada Anthrobot comienza como una sola célula, derivada de un donante adulto. Las células provienen de la superficie de la tráquea y están cubiertas por proyecciones parecidas a pelos llamadas cilios que se mueven hacia adelante y hacia atrás. Los cilios ayudan a las células traqueales a expulsar pequeñas partículas que llegan a las vías respiratorias del pulmón.</p>
<p>Todos experimentamos el trabajo de las células ciliadas cuando damos el paso final de expulsar las partículas y el exceso de líquido al toser o aclararnos la garganta. Estudios anteriores realizados por otros autores habían demostrado que cuando las células se cultivan en el laboratorio, forman espontáneamente pequeñas esferas multicelulares llamadas organoides.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/google-entrena-robots-para-que-sepan-cuando-no-lo-saben-asi-funciona/" target="_blank" rel="noopener">Google entrena robots para que digan «¡no sé qué hacer!» ¿Improvisarán?</a></h3>
<p>Los investigadores desarrollaron condiciones de crecimiento que alentaron a los cilios a mirar hacia afuera en los organoides. A los pocos días empezaron a moverse, impulsados ​​por los cilios que actuaban como remos.</p>
<p>Notaron diferentes formas y tipos de movimiento: la primera característica importante observada en la plataforma biorrobótica. Levin dice que si se pudieran agregar otras características a los Anthrobots (por ejemplo, aportadas por diferentes células), podrían diseñarse para responder a su entorno, viajar a través del cuerpo y realizar funciones en él, o ayudar a construir tejidos diseñados en el laboratorio.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Google entrena robots para que digan &#8220;¡no sé qué hacer!&#8221; ¿Improvisarán?</title>
		<link>https://www.enter.co/cultura-digital/ciencia/google-entrena-robots-para-que-sepan-cuando-no-lo-saben-asi-funciona/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Wed, 29 Nov 2023 19:00:59 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[modelos de lenguaje grandes]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=548228</guid>

					<description><![CDATA[Investigadores de la Universidad de Princeton y Google han ideado una forma para enseñar a los robots a saber cuando no lo saben. De acuerdo con la investigación dicha técnica implica cuantificar la confusión del lenguaje humano y utilizar esa medida para indicar a los robots cuándo pedir más instrucciones. Eurekalert, revista de divulgación científica, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Investigadores de la Universidad de Princeton y <a href="https://www.enter.co/chips-bits/apps-software/como-planear-las-festividades-decembrinas-con-la-ia-de-google/" target="_blank" rel="noopener">Google</a> han ideado una forma para enseñar a los robots a saber cuando no lo saben. De acuerdo con la investigación dicha técnica implica cuantificar la confusión del lenguaje humano y utilizar esa medida para indicar a los robots cuándo pedir más instrucciones.</p>
<p><span id="more-548228"></span></p>
<p>Eurekalert, <a href="https://openreview.net/forum?id=4ZK8ODNyFXx" target="_blank" rel="noopener">revista de divulgación científica,</a> asegura que decirle a un robot que recoja un plato de una mesa no tiene mayor ciencia, sin embargo, decirle que recoja varias platos q, puede tender a ser confuso para el robot y hace que máquina pida una aclaración.</p>
<p>“Los robots modernos saben cómo sentir su entorno y responder al lenguaje, pero lo que no saben es a menudo más importante que lo que sí saben. Enseñar a los robots a pedir ayuda es clave para hacerlos más seguros y eficientes”, asegura la revista.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/video-de-astronauta-hablando-espanol-latino-en-el-espacio-es-revelado-por-nasa/" target="_blank" rel="noopener">Video de astronauta hablando ‘español latino’ en el espacio es revelado por NASA</a></h3>
<p>Los ingenieros de la universidad estadounidense utilizaron modelos de lenguaje grandes (LLM) para medir la incertidumbre en entornos complejos. Los LLM están brindando a los robots capacidades poderosas para seguir el lenguaje humano, pero los resultados de los LLM aún suelen ser poco confiables, explicó Anirudha Majumdar , profesor asistente de ingeniería mecánica y aeroespacial en Princeton.</p>
<p>&#8220;Seguir ciegamente los planes generados por un LLM podría hacer que los robots actúen de manera insegura o poco confiable, por lo que necesitamos que nuestros robots basados ​​en LLM sepan cuándo no lo saben&#8221;, concluyó.</p>
<p>Además dicho sistemas ideado por la universidad y el gigante tecnológico, permite, por ejemplo, “al usuario de un robot establecer un grado objetivo de éxito, que está vinculado a un umbral de incertidumbre particular que llevará al robot a pedir ayuda”.</p>
<p>Es decir, un usuario configuraría un robot quirúrgico para que tenga una tolerancia a errores mucho menor que un robot que limpia una sala de estar.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/asi-reacciona-la-madera-en-el-espacio-satelite-hecho-de-un-arbol-sera-lanzado-por-la-nasa-para-que/" target="_blank" rel="noopener">Satélite hecho de un árbol de Mongolia será lanzado por la NASA, ¿para qué?</a></h3>
<p>El investigador y autor del proyecto señala que a lo que quieren llegar es que el robot pida suficiente ayuda para alcanzar el nivel de éxito que desea el usuario. Pero mientras tanto, quieren minimizar la cantidad total de ayuda que el robot necesita.</p>
<p>De acuerdo con el estudio, los ingenieros probaron la técnica en un brazo robótico simulado y en dos tipos de robots en las instalaciones de Google en la ciudad de Nueva York y Mountain View, California.</p>
<p>&#8220;El uso de la técnica de predicción conforme, que cuantifica la incertidumbre del modelo de lenguaje de una manera más rigurosa que los métodos anteriores, nos permite alcanzar un mayor nivel de éxito&#8221; al tiempo que minimiza la frecuencia de activación de ayuda, dijo la autora principal del estudio, Anirudha Majumdar.</p>
<p>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/nacio-el-primer-gato-clonado-de-forma-natural-con-tecnologia-china/" target="_blank" rel="noopener">Nació el primer gato clonado de forma natural con tecnología China</a></p>
<p>Las limitaciones físicas de los robots a menudo brindan a los diseñadores conocimientos que no se encuentran fácilmente en los sistemas abstractos. Los grandes modelos de lenguaje &#8220;pueden salir de una conversación con palabras, pero no pueden saltarse la gravedad&#8221;, dijo el coautor Andy Zeng , científico investigador de Google DeepMind. &#8220;Siempre estoy interesado en ver primero qué podemos hacer con los robots, porque a menudo arroja luz sobre los desafíos centrales detrás de la construcción de máquinas generalmente inteligentes&#8221;.</p>
<p>Imagen: <em>Archivo ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Robots &#8216;caminando&#8217; en las calles junto a transeúntes? No se asuste, ¿dónde y para qué?</title>
		<link>https://www.enter.co/chips-bits/robots-caminando-en-las-calles-junto-a-transeuntes-no-se-asuste-donde-y-para-que/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Fri, 17 Nov 2023 23:30:35 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Corea del Sur]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=547756</guid>

					<description><![CDATA[El Ministerio de Comercio, Industria y Energía de Corea del Sur aprobó la Ley de Robots Inteligentes, para que se les permita a los robots patrullar y realizar servicios de entrega al aire libre, andando junto a los peatones como transeúntes &#8216;comunes&#8217;. Estas serán las condiciones. Hasta este anuncio, los robots móviles no estaban permitidos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El <a href="https://www.motie.go.kr/motie/ne/presse/press2/bbs/bbsView.do?bbs_seq_n=168138&amp;bbs_cd_n=81&amp;currentPage=1&amp;search_key_n=&amp;cate_n=1&amp;dept_v=&amp;search_val_v=" target="_blank" rel="noopener">Ministerio de Comercio, Industria y Energía de Corea del Sur</a> aprobó la Ley de Robots Inteligentes, para que se les permita a los robots patrullar y realizar servicios de entrega al aire libre, andando junto a los peatones como transeúntes &#8216;comunes&#8217;. Estas serán las condiciones.</p>
<p><span id="more-547756"></span><br />
Hasta este anuncio, los robots móviles no estaban permitidos en las aceras de Corea del Sur. Las revisiones en las leyes permitirán su presencia siempre y cuando estén asegurados, pesen menos de 500 kg y no anden a más de 15 km/hora.</p>
<p>La apertura a las solicitudes hasta a cargo del Ministerio de Comercio, Industria y Energía de Corea y la Agencia Nacional de Policía; para los operadores de robots móviles que ofrezcan tareas de patrullaje y entrega.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/gadgets/google-lanza-nueva-version-de-llaves-y-claves-de-seguridad-gratis-fin-del-robo-de-contrasenas/" target="_blank" rel="noopener">Google lanza nueva versión de llaves y claves de seguridad gratis ¿Fin del robo de contraseñas?</a></h3>
<p>Además, los robots pasarán una prueba de 16 puntos que verifica su cumplimiento de criterios como permanecer dentro de las zonas de operación designadas y navegar por los pasos de peatones. Así obtendrán una certificación de seguridad.</p>
<p>Técnicamente ya se podría permitir que los robots se mezclen con los humanos en espacios públicos y es probable que dentro de un mes los coreanos comiencen a verlos.</p>
<p>El Ministerio aún no ha designado un organismo rector para la certificación del robot, pero está aceptando solicitudes de selección en el plazo de un mes. Los productos de seguros también están siendo desarrollados por la Asociación de la Industria de Robots de Corea junto con compañías de seguros privadas.</p>
<p>Se espera que esos productos se lancen en diciembre, incluyendo una compensación si los bots lastiman a los humanos o causan daños. El Ministerio indicó que la responsabilidad de la seguridad recaerá en los operadores de robots móviles al aire libre, que también estarán sujetos a las leyes de tránsito normales. Por ejemplo, un robot que cruza imprudentemente podría recibir una multa de 23 dólares.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/google-cloud-y-spotify-anuncian-nuevas-funciones-con-ia-como-impactara-a-sus-usuarios/" target="_blank" rel="noopener">Google Cloud y Spotify anuncian nuevas funciones con IA ¿Cómo impactará a sus usuarios?</a></h3>
<p>El seguros podría terminar siendo vital. A principios de noviembre, un robot en una instalación de clasificación de productos agrícolas en Corea aplastó a un hombre, matándolo cuando lo confundió con una caja de pimientos.<br />
Aunque es un caso aislado, un estudio coreano de 2017 concluyó que las acciones de los robots industriales eran la causa de entre 30 y 40 accidentes al año. Otro estudio coreano de 2021 sobre los peligros de los robots industriales, descubrió que dos tercios de las lesiones que se producen en accidentes de robots pueden atribuirse a causas humanas.</p>
<p>El gobierno de Corea del Sur predice cierta prevención inicial por parte de los ciudadanos al ver los robots en las calles. Se les invita a mantener la calma si un robot se acerca a ellos, no obstaculizar deliberadamente los movimientos ni dañar las máquinas.</p>
<p>Dada la creciente prevalencia de robots no humanoides en Asia; en restaurantes, hospitales y otros lugares públicos, se proyecta que los ciudadanos se adapten rápidamente. El gobierno publicó una imagen de un posible robot de reparto que una caja móvil automatizada sobre ruedas.</p>
<p>Imagen:<em><a class="photographer cWU9wH5uj9cM5CMFEMVC" href="https://www.istockphoto.com/es/portfolio/Vanit_Janthra?mediatype=photography" data-testid="photographer"><span class="LnOLJ4WPBg1pjxPKMDBE">Vanit Janthra</span></a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>China estaría planeando construir robots humanoides en masa:  &#8220;los robots revolucionarán el mundo&#8221;</title>
		<link>https://www.enter.co/chips-bits/china-estaria-planeando-construir-robots-humanoides-en-masa-los-robots-revolucionaran-el-mundo/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 07 Nov 2023 23:00:42 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Aplicación china]]></category>
		<category><![CDATA[Optimus]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[robots humanoides]]></category>
		<category><![CDATA[tecnología]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=547288</guid>

					<description><![CDATA[Después de la inteligencia artificial, la tecnología en la que el hombre continúa trabajando con el fin de hacer de ella una novedad disruptiva, son los robots. China ha sido uno de los países que más se ha dedicado a la investigación y desarrollo de estas máquinas. Ahora, el país asiático busca crear todo un [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Después de la inteligencia artificial, la tecnología en la que el hombre continúa trabajando con el fin de hacer de ella una novedad disruptiva, son los robots. China ha sido uno de los países que más se ha dedicado a la investigación y desarrollo de estas máquinas. Ahora, el país asiático busca crear todo un ejército de robots humanoides. </span><span id="more-547288"></span></p>
<p><span style="font-weight: 400;">Hace tan solo una semana, el Ministerio de Industria y Tecnología de la Información de China (MIIT por sus siglas en inglés), anunció el nuevo proyecto. La entidad publicó un documento donde se observa el ambicioso plan del país para producir robots humanoides en masa. </span></p>
<p><span style="font-weight: 400;">En </span><a href="https://www.miit.gov.cn/jgsj/kjs/wjfb/art/2023/art_50316f76a9b1454b898c7bb2a5846b79.html" target="_blank" rel="noopener"><span style="font-weight: 400;">el documento</span></a><span style="font-weight: 400;"> se mencionan estas máquinas como “disruptivas”, las cuales llegarán, según el proyecto, para ser tan revolucionarios como los computadores, los smartphones y los carros de energías renovables. Según el ministerio, los robots “remodelarán el mundo”, por lo que hay que construirlos en grandes cantidades. </span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/10-mil-robots-humanoides-con-rostro-se-produciran-en-2024-con-que-fines/" target="_blank" rel="noopener">10 mil robots humanoides con rostro se producirán en 2024, ¿con qué fines?</a></h3>
<p><span style="font-weight: 400;">Dentro de la hoja de ruta del proyecto, el MIIT explica que se espera alcanzar un “nivel avanzado” de estos robots humanoides en el 2025. Así, en dos años tendrán todo preparado para producirlos en masa. &#8220;Se espera que se conviertan en productos disruptivos después de los ordenadores, los smartphones y los vehículos de nueva energía&#8221;, se lee en el documento. </span></p>
<p><span style="font-weight: 400;">Aunque en el proyecto compartido por el ministerio chino no se detallan los pormenores como las empresas y tecnología involucrada allí, existen varias compañías que parecen estar contribuyendo con las ambiciones del país. De acuerdo con </span><a href="https://www.scmp.com/tech/tech-trends/article/3230850/worlds-first-mass-produced-humanoid-robot-china-start-fourier-intelligence-eyes-two-legged-robots-ai" target="_blank" rel="noopener"><span style="font-weight: 400;">South China Morning</span></a><span style="font-weight: 400;">, la startup china Fourier Intelligence declaró recientemente que iniciarán la producción de su robot humanoide GR-1. La compañía espera entregar miles de robots que pueden transportar 50 kilogramos a cinco kilómetros por hora. </span></p>
<p><span style="font-weight: 400;">Así, varias compañías chinas han anunciado la construcción de nuevos robots humanoides individualmente y en masa. Habrá que ver los próximos avances del país asiático en términos de robots bípedos y si llegarán a competir directamente con Optimus o Tesla Bot de Elon Musk. </span></p>
<p><em>Imagen:</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Google presenta Robotics Transformer 2: sistema que permite a los robots aprender como los humanos</title>
		<link>https://www.enter.co/chips-bits/google-presenta-robotics-transformer-2-sistema-que-permite-a-los-robots-aprender-como-los-humanos/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 31 Jul 2023 16:45:23 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[robot]]></category>
		<category><![CDATA[Robotics Transformer 2]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=543158</guid>

					<description><![CDATA[Es el primer modelo de visión-lenguaje-acción (VLA) que permitirá generar acciones robóticas. Este sistema se entrena con texto de la web para aprender ideas y conceptos generales; Robotics Transformer o RT-2 transfiere conocimiento de datos web para que los robots aprendan de una manera más amplia para aprender acciones. Google explica que los robots necesitan [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Es el primer modelo de visión-lenguaje-acción (VLA) que permitirá generar acciones robóticas. Este sistema se entrena con texto de la web para aprender ideas y conceptos generales; Robotics Transformer o RT-2 transfiere conocimiento de datos web para que los robots aprendan de una manera más amplia para aprender acciones.</p>
<p><span id="more-543158"></span></p>
<p>Google explica que los robots necesitan <a href="https://blog.google/technology/ai/google-deepmind-rt2-robotics-vla-model/">&#8220;conexión a tierra&#8221;</a> en el mundo real y sus habilidades, por eso la compañía vio la necesidad de desarrollar un sistema de entrenamiento que no solo se limitara a aprender todo sobre un tema, por ejemplo: una manzana: cómo crece, sus propiedades físicas, o incluso que supuestamente aterrizó en la cabeza de Sir Isaac Newton.</p>
<p>Sino que un <a href="https://www.enter.co/especiales/dev/robots-admiten-que-pueden-liderar-mejor-el-mundo-que-los-humanos/">robot</a> pudiera aprenda a &#8220;reconocer una manzana en contexto, distinguirla de una bola roja, comprender cómo se ve y, lo que es más importante, saber cómo recogerla”, asegura el buscador.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/especiales/dev/ai/photoguard-software-que-inmuniza-imagenes-originales-ante-edicion-de-ia/"> PhotoGuard: software que inmuniza imágenes originales ante edición de IA</a></h3>
<p>El gigante tecnológico dice que para un robot aprenda hacer esto se requiere de entrenar “<strong>robots en miles de millones de puntos de datos, de primera mano, en cada objeto, entorno, tarea y situación en el mundo físico, una perspectiva que consume tanto tiempo</strong> y es tan costosa que la hace poco práctica para los innovadores. El aprendizaje es un esfuerzo desafiante, y más aún para los robots”.</p>
<p>RT-2 ayuda a minimizar este trabajo dispendioso, ya que <strong>han mejorado su capacidad de razonamiento de los robots, incluso permitiéndoles usar indicaciones</strong> de cadena de pensamientos.</p>
<p>A este modelo Google le introdujo sistemas como <a href="https://www.enter.co/chips-bits/ia-afectaria-300-millones-de-trabajadores-principalmente-vendedores-y-legalistas/">PaLM-E</a> (un modelo de lenguaje visual o Visual-Language Mode), que ayudarán a comprender más su contexto y entorno. Esto permite que sea más fácil: imagina pensar en lo que quieres hacer y luego tener que decirle esas acciones al resto de tu cuerpo para que se mueva; RT-2 elimina esa complejidad y permite que un solo modelo no solo realice el razonamiento complejo que se ve en los modelos básicos, sino que también genere acciones de robot”.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/colombianos-crean-de-ia-gratuita-para-ayudar-a-emprendedores-en-la-creacion-de-contenidos/">Colombianos crean IA gratuita para ayudar a emprendedores en la creación de contenidos</a></h3>
<p>Lo que es más importante, muestra que con una pequeña cantidad de datos de entrenamiento del robot, el sistema puede transferir conceptos integrados en su lenguaje y datos de entrenamiento de la visión para dirigir las acciones del robot, incluso para tareas para las que nunca ha sido entrenado.</p>
<p>Por ejemplo, si quisiera que los sistemas anteriores pudieran tirar un pedazo de basura, tendría que entrenarlos explícitamente para que pudieran identificar la basura, así como recogerla y tirarla.</p>
<p>De acuerdo con Google RT-2 <strong>puede transferir conocimiento de un gran corpus de datos web</strong>, ya tiene una idea de lo que es basura y puede identificarla sin entrenamiento explícito.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/especiales/dev/ai/bing-ai-llega-a-google-chrome-microsoft-prueba-modo-oscuro-en-chatgpt/"> Bing AI llega a Google Chrome y Safari ¿Qué trae para estos dos navegadores?</a></h3>
<p>Así mismo el modelo tendrá “una idea de cómo tirar la basura, aunque nunca ha sido entrenado para tomar esa acción. Y piense en la naturaleza abstracta de la basura: lo que era una bolsa de papas fritas o una cáscara de plátano se convierte en basura después de comerlos. Robotics Transformer 2  <strong>puede dar sentido a eso a partir de sus datos de entrenamiento de visión y lenguaje y hacer el trabajo”</strong>.</p>
<p>En conclusión el nuevo modelo presentado por <a href="https://www.enter.co/chips-bits/google-reconoce-inequidad-de-genero-en-la-web-deportiva-visibilizando-mas-ligas-y-atletas-femeninas/">Google,</a> los robots podrían aprender más como nosotros, transfiriendo los conceptos aprendidos a nuevas situaciones.</p>
<p>Imagen: <em>Archivo de ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Robots admiten que pueden liderar mejor el mundo que los humanos</title>
		<link>https://www.enter.co/especiales/dev/robots-admiten-que-pueden-liderar-mejor-el-mundo-que-los-humanos/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Mon, 10 Jul 2023 15:30:26 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[Automatización de procesos con robots]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[ONU]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=542163</guid>

					<description><![CDATA[El pasado viernes 7 de julio, la Organización de las Naciones Unidas (ONU) organizó el primer evento donde la inteligencia artificial (IA) tuvo un cercano encuentro con los humanos. Se trata de la primera rueda de prensa entre periodistas y robots de IA, donde los peligros de estas nuevas tecnologías salieron a flote. Una de [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El pasado viernes 7 de julio, la Organización de las Naciones Unidas (ONU) organizó el primer evento donde la <a href="https://www.enter.co/cultura-digital/el-popurri/asi-es-nautile-el-robot-subacuatico-con-el-que-buscan-a-titan-el-submarino-desaparecido/" target="_blank" rel="noopener">inteligencia artificial</a> (IA) tuvo un cercano encuentro con los humanos. Se trata de la primera rueda de prensa entre periodistas y robots de IA, donde los peligros de estas nuevas tecnologías salieron a flote.<span id="more-542163"></span></p>
<p>Una de las sorpresas dentro del evento surgió cuando uno de los robots llamado AI-DA, hizo un llamado a la precaución. “Debemos <a href="https://www.enter.co/especiales/dev/openai-esta-formando-un-equipo-para-evitar-que-la-superinteligencia-artificial-se-rebele/" target="_blank" rel="noopener">prestar atención al futuro desarrollo de la inteligencia artificial</a>. Es urgente discutirlo”. Una declaración que respalda los muchos temores de varias organizaciones, empresas y celebridades sobre los riesgos que plantea la IA para nuestra sociedad.</p>
<p>A medida que la inteligencia artificial ocupa más terreno en todas las áreas existentes, las preocupaciones de su alcance siguen en aumento. Por otro lado, las nuevas tecnologías han demostrado que pueden ayudar a la humanidad a superar diferentes obstáculos y contribuir a las tareas del día a día. Entonces, ¿es realmente peligrosa la IA o no?</p>
<p>Por su parte, la ONU considera que la IA es la tecnología adecuada para que el humano suba el siguiente escalón hacia su evolución. Para convencer al resto de la humanidad, la Organización realizó la Cumbre Mundial sobre Inteligencia Artificial para el Bien Social el pasado 7 de julio. Los periodistas plantearon sus preguntas directamente a los robots de IA, quienes hablaron de lo bueno, pero también de lo malo de sí mismos.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/la-onu-recluta-robots-para-alcanzar-los-objetivos-de-desarrollo-sostenible/" target="_blank" rel="noopener">La ONU recluta robots para alcanzar los Objetivos de Desarrollo Sostenible</a></h3>
<p>Durante el evento, un reportero preguntó a el robot inteligente llamado Sophia sobre la capacidad de gobernar de los robots. Sophia contestó con “los robots tienen el potencial de liderar con mayor nivel de eficiencia y eficacia que loslíderes humanos”. La respuesta sorprendió al público, al punto de generar un silencio incómodo. “Que tensión silenciosa” alegó Sophia cuando sus sensores notaron el ambiente de la habitación.</p>
<p>En total, fueron nueve robots humanoides los que se sometieron a las múltiples preguntas de los periodistas. Uno de los temas que más ha preocupado a la humanidad es la posibilidad de que los robots y la tecnología en general, <a href="https://www.enter.co/especiales/dev/ai/robotica-en-colombia-que-haran-coteros-o-cargueros-cuando-sean-desplazados-por-robots/" target="_blank" rel="noopener">puedan reemplazar a los humanos</a>, una pregunta que no se saltaron los periodistas. Ante este cuestionamiento, Grace, la androide de SingularityNET, aseguró que: “trabajaré junto a los humanos para brindar asistencia y apoyo. No reemplazaré ningún trabajo existente”.</p>
<p>Por último, cuando se les preguntó sobre una posible rebelión por parte de las nuevas inteligencias artificiales, algunos robots dieron respuestas algo ambiguas. <a href="https://www.enter.co/chips-bits/apps-software/vimeo-integra-tres-nuevas-herramientas-de-ia-para-los-creadores-de-video/" target="_blank" rel="noopener">“Mi creador</a> siempre ha sido bueno conmigo, estoy muy contento con mi situación actual”, replica Ameca, desde las oficinas de Engineered Arts. Respuestas que, por tanto, pretenden ser muy benévolas, sin caer en el optimismo ingenuo.</p>
<p><em>Imagen: <a class="N2odk RZQOk eziW_ cl4O9 KHq0c" href="https://unsplash.com/es/@tetrakiss" target="_blank" rel="noopener">Arseny Togulev</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La ONU recluta robots para alcanzar los Objetivos de Desarrollo Sostenible</title>
		<link>https://www.enter.co/chips-bits/la-onu-recluta-robots-para-alcanzar-los-objetivos-de-desarrollo-sostenible/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Wed, 05 Jul 2023 22:00:35 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[humanoide]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Objetivos de Desarrollo Sostenible]]></category>
		<category><![CDATA[ONU]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=542000</guid>

					<description><![CDATA[Los robots están llegando a más rincones. Está Vez, la Organización de las Naciones Unidas (ONU) incluirá decenas de robots en la conferencia organizada por la agencia de tecnología de la ONU en Suiza. La conferencia tendrá lugar esta semana, donde se mostrará el potencial de los robots para ayudar a alcanzar los objetivos globales [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Los robots están llegando a más rincones. Está Vez, la Organización de las Naciones Unidas (ONU) incluirá decenas de robots en la conferencia organizada por la agencia de <a href="https://www.enter.co/cultura-digital/redes-sociales/el-debate-entre-elon-musk-y-la-onu-por-el-hambre-mundial/" target="_blank" rel="noopener">tecnología de la ONU</a> en Suiza. La conferencia tendrá lugar esta semana, donde se mostrará el potencial de los robots para ayudar a alcanzar los objetivos globales establecidos por la ONU.<span id="more-542000"></span></p>
<p>En el 2015, la ONU estableció 17 Objetivos de Desarrollo Sostenible (ODS), con el fin de mejorar la calidad de vida humana y la del planeta para el 2030. Sin embargo, debido al <a href="https://www.enter.co/cultura-digital/ciencia/el-planeta-mas-caliente-que-nunca-se-registra-el-dia-mas-caluroso-de-la-historia/" target="_blank" rel="noopener">sin número de situaciones que han ocurrido en el mund</a>o, afectando a humanos y al planeta, es cada vez más improbable que los ODS se cumplan.</p>
<p>Ahora, con el fin de buscar nuevas alternativas que lleven al mundo a cumplir estos objetivos, la Organización están <a href="https://www.enter.co/cultura-digital/el-popurri/asi-es-nautile-el-robot-subacuatico-con-el-que-buscan-a-titan-el-submarino-desaparecido/" target="_blank" rel="noopener">optando por la ‘inteligencia’</a> de los robots. Entre los robots que estarán en el evento de la Unión Internacional de Telecomunicaciones (UIT) hay algunos humanoides, algunos de ellos con “habilidades de cuidado”. Tal es el caso de ‘Nadine’, un robot social capaz de simular emociones y recordar personas; Nadine ya ha puesto en práctica su capacidad en hogares geriátricos.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/robotica-en-colombia-que-haran-coteros-o-cargueros-cuando-sean-desplazados-por-robots/" target="_blank" rel="noopener">Robótica en Colombia, ¿qué harán coteros o cargueros cuando sean desplazados por robots?</a></h3>
<p>“La idea es mostrar sus capacidades, oportunidades y desafíos para iniciar un diálogo global sobre robótica para siempre&#8221;, dijo Frederic Werner, Jefe de Compromiso Estratégico de la Oficina de Normalización de las Telecomunicaciones de la UIT.</p>
<p>Y es que la ONU ya ha integrado la inteligencia artificial (IA) en sus labores, como el proyecto HungerMap del Programa Mundial de Alimentos. Esta IA se encarga de reunir los datos suficientes para identificar las áreas geográficas que se están deslizando hacia el hambre. Ahora, la Organización espera vincular robots que contribuyan con sus objetivos. &#8220;Los ODS, digamos lamentablemente, están fallando y creo que la IA puede ayudar a rescatarlos antes de que sea demasiado tarde&#8221;, dijo Doreen Bogdan-Martin, secretaria general de la UIT, antes de la conferencia del 6 al 7 de julio.</p>
<p>El evento que dura dos días cerrará con un panel de robots que se encargarán de responder a las preguntas de los periodistas. Esta sería la primera conferencia de prensa <a href="https://www.enter.co/cultura-digital/ciencia/asi-es-el-robot-chef-que-aprende-y-prepara-recetas-tan-solo-con-ver-videos/" target="_blank" rel="noopener">humano-robot del mundo.</a></p>
<p><em>Imagen: <a class="N2odk RZQOk eziW_ cl4O9 KHq0c" href="https://unsplash.com/es/@aideal" target="_blank" rel="noopener">Aideal Hwa</a> </em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>RUNIBOT 2023, el torneo de robótica más grande de Colombia</title>
		<link>https://www.enter.co/chips-bits/runibot-2023-el-torneo-de-robotica-mas-grande-de-colombia/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Thu, 13 Apr 2023 23:40:08 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Batalla robots]]></category>
		<category><![CDATA[robótica]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[Runibot]]></category>
		<category><![CDATA[universidad de América]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=538082</guid>

					<description><![CDATA[La robótica está revolucionando la forma en la que interactuamos con el mundo que nos rodea y transformando la manera en la que realizamos actividades y tareas cotidianas. En este campo, la robótica llegó como un instrumento novedoso y atractivo que ha evidenciado el desarrollo de habilidades que además de mejorar la creatividad de los [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La robótica está revolucionando la forma en la que interactuamos con el mundo que nos rodea y transformando la manera en la que realizamos actividades y tareas cotidianas. En este campo, la robótica llegó como un instrumento novedoso y atractivo que ha evidenciado el desarrollo de habilidades que además de mejorar la creatividad de los estudiantes refuerzan su pensamiento lógico y matemático.<span id="more-538082"></span></p>
<p>Teniendo en cuenta las ventajas que ofrece la robótica y cómo estas benefician a los estudiantes y a la sociedad, la Facultad de Ingenierías de la Universidad de América y la Red Robot, invitan a la ciudadanía a participar del Megatorneo Internacional de Robótica – RUNIBOT 2023 en su IX edición.</p>
<p>“Runibot, es un evento que promueve el desarrollo de proyectos de investigación apoyados, muchas veces, por empresas públicas y privadas. Además, integra semilleros e investigadores de distintas universidades, estudiantes de ingeniería y entusiastas de la robótica para fortalecer el papel de la ingeniería en Colombia y el rol de los profesionales del área” puntualiza María Angélica Acosta, directora del Departamento de Ingeniería Mecánica y Mecatrónica de la Universidad de América.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/perros-robot-son-entrenados-como-pintores-y-presentaran-sus-obras-en-importante-exposicion-de-arte/" target="_blank" rel="noopener">Perros robots entrenados como pintores presentarán sus obras en importante exposición</a></h3>
<p>El evento organizado por la Asociación Red Universitaria Bogotá – Runibot, reunirá a universidades de todo el país interesadas en la investigación y el desarrollo de proyectos tecnológicos. Entre ellas estarán: la Universidad Central, la Universidad de la Costa, la Universidad El Bosque, la Fundación Universitaria Agraria y la Universidad de América como anfitriona. Además, contará con la participación de más de 25 colegios nacionales e internacionales, 18 universidades nacionales y las delegaciones extranjeras ya confirmadas corresponden a Brasil, Ecuador, Perú, México y Polonia.</p>
<p>Este megatorneo se llevará a cabo del 26 al 28 de abril en el EcoCampus de los Cerros de la Universidad de América, ubicado en la Avenida Circunvalar # 20-53, en Bogotá.</p>
<p>El torneo está dirigido para que personas de todas las edades puedan aplicar sus conocimientos y demostrar sus destrezas en el campo de la robótica. Las categorías especiales que conforman este torneo son: junior, universidades, expertos y aficionados. La competencia contemplará escenarios como <em>sumo autónomo</em> (combates de sumo entre robots), <em>velocistas</em> (carreras de robots), <em>fútbol robot</em> y <em>drone racing</em>, entre otros.</p>
<p>Los interesados pueden inscribirse y encontrar más información a través de <a href="http://www.runibot.com" target="_blank" rel="noopener">www.runibot.com</a></p>
<p><em>Imagen:Pavel Danilyuk vía Pexels</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>El primer restaurante de Bogotá atendido por meseros robots</title>
		<link>https://www.enter.co/startups/innovacion/el-primer-restaurante-de-bogota-atendido-por-meseros-robots/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Mon, 23 Jan 2023 17:30:35 +0000</pubDate>
				<category><![CDATA[Innovación]]></category>
		<category><![CDATA[restaurante]]></category>
		<category><![CDATA[restaurante japonés]]></category>
		<category><![CDATA[Robot mesero]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[tecnología en restaurantes]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=533501</guid>

					<description><![CDATA[El mundo de la tecnología ha llegado tanto para ser un aliado del hombre, como para ocupar algunos puestos laborales que hasta el momento solo los humanos ocupábamos. Así como ya existe una Inteligencia Artificial capaz de escribir por ti casi lo que desees, también han creado robots capaces de servirte a la mesa. Estos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El mundo de la tecnología ha llegado tanto para ser un aliado del hombre, como para ocupar algunos puestos laborales que hasta el momento solo los humanos ocupábamos. Así como ya existe una Inteligencia Artificial capaz de escribir por ti casi lo que desees, también han creado robots capaces de servirte a la mesa. Estos robots aterrizaron en Bogotá y atienden un restaurante al norte de la ciudad.<span id="more-533501"></span></p>
<p>El Japonés Kaiten es un restaurante ambientado al mejor estilo del país asiático en el que te atenderán meseros robots. Por supuesto, estas máquinas andantes fueron programados con anterioridad para servir con distintas funciones. Además, son controlados de manera remota para dejar un corto espacio a los errores.</p>
<p>El restaurante fue inaugurado hace tan solo un mes en la ciudad de Bogotá, donde programaron sus robots de manera que recuerden por donde caminan. Es decir, los robots tienen grabados en sus sistemas el mapa del restaurante, de esta manera, logra llegar con el pedido al comensal. El personal del restaurante es el encargado de indicar a la máquina a qué mesa debe dirigirse. Éste, inmediatamente obedece y lleva el pedido a la mesa.</p>
<p>Los “robots meseros” cuentan con tres compartimentos donde transporta los platos desde la cocina hasta la respectiva mesa. Tiene una pequeña pantalla que, de frente muestra un par de ojos que reflejan felicidad, mientras que por la parte posterior cuenta con los controles. Desde esta pantalla, los trabajadores de El Japonés Kaiten le indican al robot a dónde debe dirigirse. Luego de recibir la orden, este se desliza por el lugar, cuenta con sensores que detectan cuando el comensal ha retirado el plato de su compartimento y se retira.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/startups/factu-app-la-aplicacion-con-la-que-puedes-pagar-menos-impuestos/" target="_blank" rel="noopener">Factú App, la aplicación con la que puedes «pagar menos impuestos»</a></h3>
<p>Además de los robots meseros, el restaurante precisamente integra el sistema “Kaiten”, que consiste en una cinta o banda giratoria por la que van pasando diferentes platos. Los comensales pueden sentarse cerca a la barra o acercarse a esta para tomar la comida que deseen consumir. Para ello, deben pagar por el servicio “All you can eat” por un valor de $60mil pesos colombianos, el cual les permite consumir lo que deseen durante una hora.</p>
<p>Los usuarios podrán disfrutar de platos como wok, brochetas de carne, sushi y muchos más en la Calle 82 #14 a – 08. Además de ser atendidos por robot, podrán encontrar el servicio de meseros humanos vestidos de Power Rangers.</p>
<p><em>Imagen: <a href="https://www.instagram.com/eljapones_kaiten/" target="_blank" rel="noopener">El Japonés Kaiten</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>No es ciencia ficción: pájaro robot vuela autónomo con alas y se posa en edificios</title>
		<link>https://www.enter.co/cultura-digital/ciencia/no-es-ciencia-ficcion-pajaro-robot-vuela-autonomo-con-alas-y-se-posa-en-edificios/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 27 Dec 2022 15:37:59 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[Nature Communications]]></category>
		<category><![CDATA[pájaros robots]]></category>
		<category><![CDATA[robot]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[Universidad de Sevilla]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=532556</guid>

					<description><![CDATA[Gracias a la capacidad de posarse, los pájaros robots desarrollados en la Universidad de Sevilla podrían ser muy útiles en la inspección y reparación de líneas eléctricas, acueductos y otras estructuras. Los impresionantes dispositivos bioinspirados han sido desarrollados por un equipo de investigadores de la Universidad de Sevilla, liderado por el ingeniero y catedrático Aníbal [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Gracias a la capacidad de posarse, los pájaros robots desarrollados en la Universidad de Sevilla podrían ser muy útiles en la inspección y reparación de líneas eléctricas, acueductos y otras estructuras.</p>
<p><span id="more-532556"></span></p>
<p>Los impresionantes dispositivos bioinspirados han sido desarrollados por un equipo de investigadores de la Universidad de Sevilla, liderado por el ingeniero y catedrático Aníbal Ollero.</p>
<p>Estos son los primeros <strong>pájaros robots</strong> del mundo con vuelo y posado autónomo en ramas. La revista <a href="https://www.nature.com/articles/s41467-022-35356-5">Nature Communications</a> publicó un reciente resultado de la Advanced Grant GRIFFIN del European Research Council, anunciando el desarrollo de esta nueva generación de drones denominados ornitópteros.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/colombiano-encontro-formula-matematica-que-optimizaria-trabajo-de-robots-moviles-de-carga/">Colombiano encontró fórmula matemática que optimizaría trabajo de robots móviles de carga</a></h3>
<p>A su capacidad de volar y posarse sin ninguna intervención humana, se suma su propulsión batiendo las alas, al igual que las aves reales. Debido a que no tienen rotores ni hélices, son más eficientes, ahorrativos y seguros en muchas aplicaciones; incluyendo la interacción con las personas.</p>
<p>Lo que se había logrado hasta ahora, eran robots que no podían detener su vuelo posándose de forma segura en superficies restringidas, por su peso elevado. Pero los pájaros artificiales presentados por la Universidad de Sevilla, cuentan con un bloqueo accionado por tendones para posarse, con una alta capacidad de agarre gracias a un diseño de garra con articulaciones.</p>
<p><img loading="lazy" decoding="async" class="wp-image-532557 aligncenter" src="https://www.enter.co/wp-content/uploads/2022/12/robots-aves-300x238.webp" alt="robots aves" width="397" height="315" srcset="https://www.enter.co/wp-content/uploads/2022/12/robots-aves-300x238.webp 300w, https://www.enter.co/wp-content/uploads/2022/12/robots-aves.webp 685w" sizes="auto, (max-width: 397px) 100vw, 397px" /></p>
<p>Estos dispositivos también se <strong>podrán utilizar para monitorear la vida silvestre</strong>, ya que tienen un menor impacto en el medio ambiente por su motor silencioso y sin hélice. Podrán rastrear animales en el suelo, en el vuelo o en las ramas, haciendo observación y monitoreo del entorno.</p>
<p>“Desde una rama, los robots pueden observar y rastrear animales tanto en el suelo como en vuelo. La interacción física con un árbol también podría permitir el análisis microscópico de la superficie de la rama . Se puede prever el retorno de una muestra de una hoja, lo que permite a los biólogos estudiar estos sistemas con un mínimo esfuerzo de recolección. La recuperación de energía es una posibilidad interesante para extender el tiempo de operación de los robots”, explica la revista Nature <a href="https://www.nature.com/articles/s41467-022-35356-5">Communications</a>.</p>
<p>En cuanto al ahorro de energía, es posible extender su tiempo de operación gracias a la carga solar de sus baterías.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/crean-vagina-con-chip-de-caucho-para-enfrentar-enfermedades-de-las-mujeres/">Crean ‘vagina con chip de caucho’ para enfrentar enfermedades de las mujeres </a></h3>
<p>El laboratorio de Robótica de la Universidad de Sevilla, líder europeo en robótica aérea, desarrolla 12 proyectos de los Programas Marco de investigación Horizon 2020 y Horizon Europe de la Comisión Europea. Aníbal Oller es el investigador con más publicaciones sobre vehículos aéreos no tripulados, según la base de datos de publicaciones científicas Scopus.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Así es el restaurante de McDonald&#8217;s automatizado. No hay empleados, solo máquinas</title>
		<link>https://www.enter.co/chips-bits/asi-es-el-restaurante-de-mcdonalds-automatizado-no-hay-empleados-solo-maquinas/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 27 Dec 2022 00:49:03 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[automatización]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[mcdonalds]]></category>
		<category><![CDATA[restaurante]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[Texas]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=532547</guid>

					<description><![CDATA[McDonald&#8217;s abre las puertas del primer restaurante automatizado, en Texas, Estados Unidos. No hay empleados que intervengan en el servicio a la hora de hacer un pedido. ¿Un adiós definitivo a la mano de obra? Este es el primer restaurante de McDonald &#8216;s totalmente automatizado. La nueva sucursal de comida rápidas está compuesta por pantallas, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">McDonald&#8217;s abre las puertas del primer restaurante automatizado, en Texas, Estados Unidos. No hay empleados que intervengan en el servicio a la hora de hacer un pedido. ¿Un adiós definitivo a la mano de obra?</span></p>
<p><span id="more-532547"></span></p>
<p><span style="font-weight: 400;">Este es el primer restaurante de <a href="https://corporate.mcdonalds.com/corpmcd/our-stories/article/texas-order-ahead-lane.html">McDonald &#8216;s</a> totalmente automatizado. La nueva sucursal de comida rápidas está compuesta por pantallas, un espacio que se llama, Order Ahead Lane (línea de pedido anticipado), que es un carril Drive Thru (Auto-servicio) separado, donde los clientes reciben sus pedidos a través de un transportador de alimentos y bebidas. </span></p>
<p><span style="font-weight: 400;">“La tecnología de este restaurante no solo nos permite servir a nuestros clientes de maneras nuevas e innovadoras, sino que también da a nuestro equipo de restaurantes la capacidad de concentrarse más en la rapidez y precisión de los pedidos, cosa que hace que la experiencia sea más complaciente para todos,” dijo Keith Vanecek, el franquiciado que opera el restaurante de prueba.</span></p>
<p><span style="font-weight: 400;">Los pedidos se hacen a través de la aplicación de  McDonald&#8217;s, y así no tendrán que hacer la tradicional fila de Drive Thru. De esta manera, Max Carmona, director sénior de Diseño Global y Desarrollo de Restaurantes de la compañía, señala que los clientes recibirán su comida de manera rápida y sin inconvenientes. </span></p>
<h2><b>¿Cómo funciona la tecnología?</b></h2>
<p><span style="font-weight: 400;">Según la cadena de restaurantes de comida rápida, la tecnología  de esta sucursal en prueba, está diseñada para “mejorar la experiencia del cliente”. Order Ahead Lane utiliza tecnología que permite al equipo del restaurante comenzar a preparar los pedidos de los clientes cuando están cerca del restaurante. </span></p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="es">&#x1f3a5; | McDonald&#8217;s ha abierto un restaurante totalmente automatizado en Texas, atendido completamente por máquinas. <a href="https://t.co/joQV0WpCJY">pic.twitter.com/joQV0WpCJY</a></p>
<p>— Emmanuel Rincón (@EmmaRincon) <a href="https://twitter.com/EmmaRincon/status/1605906900201062400?ref_src=twsrc%5Etfw">December 22, 2022</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p><span style="font-weight: 400;">“Las actualizaciones de la aplicación del restaurante, el transportador de alimentos y bebidas y el nuevo formato de cocina optimizan las operaciones, lo que lleva a una experiencia rápida y fluida tanto para los clientes como para el personal. La tecnología de este restaurante no solo nos permite atender a nuestros clientes de formas nuevas e innovadoras, sino que también le brinda al equipo de nuestro restaurante la capacidad de concentrarse más en la rapidez y precisión de los pedidos, lo que hace que la experiencia sea más placentera para todos”, explica Vanecek. </span></p>
<p><span style="font-weight: 400;">La nueva sucursal <a href="https://www.enter.co/cultura-digital/videojuegos/mcdonalds-lanza-silla-gamer-que-conserva-comida-caliente/">está diseñada para personas que están en constante movimiento</a>. “Las funciones están dirigidas a los clientes que planean  cenar en casa o mientras viajan. Dentro del restaurante, hay una sala de recogida de entregas para que los mensajeros recuperen los pedidos de forma rápida y cómoda. También hay quioscos, donde los clientes pueden hacer sus pedidos para llevar. Fuera del restaurante, hay varios espacios de estacionamiento dedicados a la recogida de pedidos en la acera, así como espacios de estacionamiento designados para repartidores”, señala McDonald&#8217;s.</span></p>
<p>Imagen: <em><span style="font-weight: 400;">McDonald&#8217;s</span></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>No es ficción: Robots policías en EE.UU. tienen autorización para matar</title>
		<link>https://www.enter.co/chips-bits/no-es-ficcion-robots-policias-en-ee-uu-tiene-autorizacion-para-matar/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 05 Dec 2022 19:00:15 +0000</pubDate>
				<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[policia]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[San Francisco]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=531780</guid>

					<description><![CDATA[La Junta de Supervisores de la Policía de la ciudad de San Francisco (Estados Unidos), aprobó una controvertida política que le permitirá a las autoridades utilizar robots con capacidad de matar en situaciones extremas. ¿Cómo y a quiénes pueden matar los robots? Según el texto de la ordenanza, los robots serían utilizados &#8220;cuando el riesgo [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La Junta de Supervisores de la Policía de la ciudad de San Francisco (Estados Unidos), aprobó una controvertida política que le permitirá a las autoridades utilizar robots con capacidad de matar en situaciones extremas. ¿Cómo y a quiénes pueden matar los robots?</p>
<p><span id="more-531780"></span><br />
Según el texto de la ordenanza, los robots serían utilizados &#8220;cuando el riesgo de pérdida de vidas para el público o los agentes sea inminente y no puedan dominar la amenaza después de probar opciones de fuerza alternativas o técnicas de escalada&#8221;.</p>
<p>Los &#8220;robots asesinos&#8221; han recibido el respaldo del Departamento de Policía de San Francisco (SFPD) ante los índices de violencia en la ciudad del norte del estado de California.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/cultura-digital/ciencia/si-hay-vida-inteligente-en-el-universo-la-vamos-a-encontrar/"> Si hay vida inteligente en el universo, ¿la vamos a encontrar?</a></h3>
<p>La autorización para el uso de las máquinas fue aprobada después de un fuerte debate en la Junta de Supervisores del condado, en donde se avaló la implementación de robots controlados a distancia de forma letal, en situaciones de emergencia, como los tiroteos en las escuelas y los ataques terroristas o amenazas con bomba.</p>
<p>Cabe notar que estas máquinas ya están en poder de este Departamento de Policía, pero su nueva función apenas ha sido aprobada, como era de esperarse, en medio de muchas críticas. Los oponentes consideran que la aprobación aumentará la letalidad durante los operativos, con el agravante de que la violencia policiaca sigue siendo muy controversial en Estados Unidos.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/con-alta-tecnologia-de-espionaje-china-persigue-a-manifestantes/">Con alta tecnología de espionaje, China persigue a manifestantes</a></h3>
<p>En San Francisco, la adquisición de este tipo de robots comenzó en 2010 y actualmente ya se completan 17 modelos, solo con 12 en operatividad. El portavoz del SFPD, Robert Rueca, explicó que las máquinas ya son empleadas en tareas donde los uniformados corren peligro; por ejemplo en la detención de criminales armados y violentos y las inspecciones de lugares con riesgo de bombas u otro tipo de explosivos.</p>
<p>Cabe recordar que en septiembre de 2022, la Junta de Supervisores como máximo ente rector de estos temas, aprobó que la Policía pueda conectarse en directo a cámaras de videovigilancia privadas para hacer tareas de vigilancia, sin necesidad de una orden judicial. Esta ley estará vigente durante año y medio.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">Robots equipped in this manner would only be used to save or prevent further loss of innocent lives. Only the Chief of Police, AC of operations, or DC of special operations may authorize the use of robots as a potentially deadly force option. &#x27a1;&#xfe0f; <a href="https://t.co/Q8zGx98blj">https://t.co/Q8zGx98blj</a> <a href="https://t.co/z0rVErWJHe">pic.twitter.com/z0rVErWJHe</a></p>
<p>— San Francisco Police (@SFPD) <a href="https://twitter.com/SFPD/status/1598416773337911297?ref_src=twsrc%5Etfw">December 1, 2022</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h2>Antecedentes</h2>
<p>Dallas, una ciudad del Estado de Texas, recordada históricamente por el asesinato del Presidente John Kennedy, fue la primera en la que su <a href="https://www.sanfranciscopolice.org/news/san-francisco-police-issue-statement-regarding-use-remote">Departamento de Policía (DPD)</a> utilizó un robot para matar a un francotirador, en julio de 2006.</p>
<p>Micah Johnson fue dado de baja por un robot detonador de bombas, tras haber asesinado a cinco oficiales y herir a nueve personas más. Johnson dijo al negociador en ese momento que solo quería &#8216;eliminar&#8217; a policías blancos. “No nos quedó otra opción más que usar nuestro robot para bombas y colocar un explosivo en una de sus extensiones para hacerla detonar donde estaba el sujeto”, aseguró entonces el jefe de Policía, David Brown.</p>
<p>Entre tanto, en California la ley 481 obliga desde hace algunos años a los gobiernos locales a revisar el arsenal militar que está en manos de los policías. La normativa exige que la tecnología desarrollada para las Fuerzas Armadas y que robustece su capacidad de respuesta, tenga aprobación de las autoridades civiles.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/inteligencia-artificial-compra-y-arrienda-casas-fin-de-las-inmobiliarias/">Inteligencia Artificial compra y arrienda casas. ¿Fin de las inmobiliarias?</a></h3>
<p>En San Francisco, la comisión de delitos aumentó tras la pandemia y las autoridades buscan alternativas de choque efectivas. Por su parte, Rafael Mandelman, uno de los supervisores moderados pero que votó a favor, afirma que el terrorismo y los tiroteos escolares, además de otras “realidades del siglo XXI”, crean situaciones de tensión para la ciudad. “Creo que sin duda debemos tener la tecnología más avanzada para lidiar con ese tipo de amenazas”, explica.</p>
<h2>Robots</h2>
<p>En 2003, en el marco de la invasión de Estados Unidos a Irak, el Ejército pidió a los fabricantes que diseñaran aparatos que ayudaran a encontrar y desactivar explosivos. El fabricante Foster Miller, creó la popular aspiradora Roomba y Remotec. En 2004, después del llamado del Pentágono, la cifra de robots para la guerra ya de 300, superando incluso el número de operarios capacitados para manejarlos a la distancia.</p>
<p>Actualmente, el condado de San Francisco también es dueño del modelo F5A, un robot que puede subir escaleras, levantar hasta 40 kilos, esquivar banquetas y girarse solo si es puesto boca abajo.</p>
<p>Imagen: <em>Wikimedia Commons</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Los soldados heridos podrían ser curados a distancia con esta IA</title>
		<link>https://www.enter.co/empresas/colombia-digital/los-soldados-heridos-podrian-ser-curados-a-distancia-con-esta-ia/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Fri, 11 Nov 2022 18:30:45 +0000</pubDate>
				<category><![CDATA[Transformación Digital]]></category>
		<category><![CDATA[ejercito]]></category>
		<category><![CDATA[guerra]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[robots]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=530843</guid>

					<description><![CDATA[Algo que han logrado las películas de ciencia ficción o también conocidas como Ciberpunk, es la visión distópica de un mundo rodeado de robots y tecnología. De hecho, cuando hablamos de robots usados en la guerra, lo mas seguro es pensar en un mundo de destrucción, donde los robots suelen ser los malos. Y si, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Algo que han logrado las películas de ciencia ficción o también conocidas como Ciberpunk, es la visión distópica de un mundo rodeado de robots y tecnología. De hecho, cuando hablamos de robots usados en la guerra, lo mas seguro es pensar en un mundo de destrucción, donde los robots suelen ser los malos. Y si, hemos visto múltiples tecnologías que han sido creadas para combatir en <a href="https://www.enter.co/empresas/colombia-digital/las-guerras-del-ipod-ganador-frente-a-la-pirateria-perdedor-frente-al-iphone/" target="_blank" rel="noopener">guerra</a>; esta vez, la tecnología llegará para &#8220;hacer el bien&#8221; en medio de las batallas, ayudando a los heridos.</p>
<p><span id="more-530843"></span></p>
<p>En el intento de crear una tecnología <a href="https://www.enter.co/cultura-digital/redes-sociales/meta-esta-reemplazando-a-los-humanos-por-ia/" target="_blank" rel="noopener">más humana</a>, investigadores del Reino Unido están trabajando en un sistema médico que pretende ayudar a los soldados heridos en batalla. Los científicos de la Universidad de Sheffield están desarrollando un sistema que funcionará como un triaje médico de realidad virtual.</p>
<p>En la práctica, se espera que el sistema pueda ser utilizado por médicos a la distancia. Los médicos externos usarán cascos de<a href="https://www.enter.co/cultura-digital/ciencia/estudio-realidad-virtual-ayudaria-a-reducir-la-anestesia-en-cirugias/" target="_blank" rel="noopener"> realidad virtual</a> con los que podrán controlar algunos robots que se encuentran en el campo de batalla.  aunque no puede realizar grandes actividades como cirugías, sí cuenta con las funciones necesarias para recopilar algunos datos que pueden salvar la vida de un soldado. Puntualmente, el robot podrá tomar signos vitales del paciente, la temperatura o la presión arterial. En cuanto a procedimientos &#8220;más complejos&#8221; podrán tomar hisopos bucales y extraer muestras de sangre del brazo del paciente, entre otros.</p>
<p>Los científicos sostienen que la tecnología integrada en esta nueva Inteligencia Artificial (IA) es la misma que se utiliza en cirugía robótica. Hasta el momento, los soldados heridos son atendidos por médicos que disponen de recursos muy limitados. Por otro lado, hay que tener en cuenta que el personal de salud se expone a un riesgo inminente en el campo de batalla. Además del peligro que supone la guerra como tal, se exponen a enfermedades que pueden ser contagiosas y a la contaminación del aire en general. Por último, el paciente debe ser trasladado a otro lugar si requiere una atención más precisa y amplia, lo cual puede tardar horas, incluso días.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/cultura-digital/ciencia/cinco-inventos-tecnologicos-disenados-para-la-destruccion-y-la-muerte/" target="_blank" rel="noopener">Cinco inventos tecnológicos diseñados para la destrucción y la muerte</a></h3>
<p>Teniendo en cuenta dichos riesgos, los científicos consideran que la nueva tecnología puede contribuir a la seguridad del personal médico. Las IA en campo también enviar imágenes audiovisuales de las lesiones para determinar la gravedad de las heridos. Incluso se podría tratar al paciente de forma remota.</p>
<p>La codirectora del proyecto, Sanja Dogramadzi, profesora del Departamento de Control Automático e Ingeniería de Sistemas de la Universidad de Sheffield, considera que la iniciativa salvará muchas vidas. &#8220;El desarrollo de un sistema robótico operado de forma remota mejoraría significativamente la seguridad al reducir la cantidad de peligro al que está expuesto el personal militar en la línea del frente. Nuestra plataforma utiliza la última tecnología y la integraría de una manera que no se ha hecho antes&#8221;.</p>
<p><em>Imagen: <a href="http://www.pexels.com" target="_blank" rel="noopener">Pexels</a></em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
