<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>inteligencia artificial google: Noticias, Fotos, Evaluaciones, Precios y Rumores de inteligencia artificial google • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/inteligencia-artificial-google/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/inteligencia-artificial-google/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Tue, 14 Apr 2026 12:50:31 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>inteligencia artificial google: Noticias, Fotos, Evaluaciones, Precios y Rumores de inteligencia artificial google • ENTER.CO</title>
	<link>https://www.enter.co/noticias/inteligencia-artificial-google/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Gemini lanza Inteligencia Personal en Colombia: así funciona la nueva herramienta de Google</title>
		<link>https://www.enter.co/chips-bits/apps-software/gemini-lanza-inteligencia-personal-en-colombia-asi-funciona-la-nueva-herramienta-de-google/</link>
					<comments>https://www.enter.co/chips-bits/apps-software/gemini-lanza-inteligencia-personal-en-colombia-asi-funciona-la-nueva-herramienta-de-google/#respond</comments>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 14 Apr 2026 12:50:31 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[AI Plus Colombia]]></category>
		<category><![CDATA[Gemini Colombia]]></category>
		<category><![CDATA[Gemini funciones]]></category>
		<category><![CDATA[Gemini personalización]]></category>
		<category><![CDATA[Google IA usuarios]]></category>
		<category><![CDATA[Google Inteligencia Personal]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[novedades Gemini 2026]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=583116</guid>

					<description><![CDATA[La inteligencia artificial de Google da un nuevo paso en Colombia con la llegada de la función de Inteligencia Personal en su aplicación Gemini. Desde este 14 de abril, los usuarios suscritos a los planes AI Plus, Pro y Ultra podrán acceder a una herramienta que promete respuestas más útiles al integrar información de sus [&#8230;]]]></description>
										<content:encoded><![CDATA[<p data-start="0" data-end="406">La inteligencia artificial de <span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Google</span></span> da un nuevo paso en Colombia con la llegada de la función de Inteligencia Personal en su aplicación <span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Gemini</span></span>. Desde este 14 de abril, los usuarios suscritos a los planes AI Plus, Pro y Ultra podrán acceder a una herramienta que promete respuestas más útiles al integrar información de sus propias cuentas.</p>
<p data-start="0" data-end="406"><span id="more-583116"></span></p>
<p data-start="408" data-end="815">La novedad consiste en permitir que Gemini conecte distintos servicios del ecosistema de Google, como Gmail, Fotos, el buscador y el historial de YouTube, para ofrecer respuestas más ajustadas a cada persona. Aunque el asistente ya podía interactuar con estas plataformas, la actualización introduce una capacidad adicional: analizar y razonar sobre los datos del usuario para anticiparse a sus necesidades.</p>
<p data-start="817" data-end="1197">En la práctica, esto se traduce en recomendaciones más precisas sin necesidad de explicar cada detalle. Por ejemplo, una consulta general puede derivar en sugerencias personalizadas basadas en hábitos previos, intereses o información almacenada en las aplicaciones conectadas. El objetivo es reducir pasos y hacer que la interacción con la inteligencia artificial sea más directa.</p>
<p data-start="1199" data-end="1457">El despliegue en Colombia comienza con los usuarios pagos, pero la compañía confirmó que la función llegará también a la versión gratuita en las próximas semanas. Estará disponible en web, Android e iOS, lo que amplía su alcance entre distintos dispositivos.</p>
<h2 data-start="1459" data-end="1511" data-section-id="cspozl">¿Cómo activar y controlar la Inteligencia Personal?</h2>
<p data-start="1513" data-end="1872">Uno de los aspectos centrales del lanzamiento es el control que conserva el usuario sobre sus datos. La función está desactivada por defecto, por lo que cada persona decide si quiere habilitarla y qué aplicaciones vincular. No es obligatorio conectar todos los servicios, lo que permite ajustar el nivel de personalización según las preferencias individuales.</p>
<p data-start="1874" data-end="2275">Además, Gemini no utiliza esta información en todas las respuestas. El sistema evalúa cuándo la personalización puede aportar valor antes de integrar los datos del usuario. También existen herramientas para modificar la experiencia en tiempo real: el botón “Volver a intentar” permite generar una respuesta sin personalización, mientras que la opción “No me gusta” sirve para enviar retroalimentación.</p>
<h3 data-start="1874" data-end="2275">Te puede interesar: <a href="https://www.enter.co/chips-bits/apps-software/google-finance-se-renueva-con-inteligencia-artificial-y-prepara-su-llegada-a-colombia/" target="_blank" rel="noopener">Google Finance se renueva con inteligencia artificial y prepara su llegada a Colombia</a></h3>
<p data-start="2277" data-end="2566">Otro punto relevante es la gestión del historial. La aplicación puede usar conversaciones anteriores para mejorar sus respuestas, aunque esta función también puede desactivarse desde la configuración. Los usuarios tienen la posibilidad de revisar y eliminar sus chats en cualquier momento.</p>
<p data-start="2568" data-end="2922">Por ahora, la Inteligencia Personal está limitada a cuentas personales de Google y no está disponible para entornos empresariales, educativos o de Workspace. Con esta actualización, la compañía busca fortalecer el vínculo entre sus servicios y su asistente de inteligencia artificial, en un movimiento que apunta a integrar aún más su ecosistema digital.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/chips-bits/apps-software/gemini-lanza-inteligencia-personal-en-colombia-asi-funciona-la-nueva-herramienta-de-google/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Google lanza Nano Banana 2: ¿qué cambia y dónde ya está disponible el nuevo modelo de imágenes?</title>
		<link>https://www.enter.co/especiales/dev/inteligencia-artificial/google-lanza-nano-banana-2-que-cambia-y-donde-ya-esta-disponible-el-nuevo-modelo-de-imagenes/</link>
					<comments>https://www.enter.co/especiales/dev/inteligencia-artificial/google-lanza-nano-banana-2-que-cambia-y-donde-ya-esta-disponible-el-nuevo-modelo-de-imagenes/#respond</comments>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Thu, 26 Feb 2026 20:52:07 +0000</pubDate>
				<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[C2PA]]></category>
		<category><![CDATA[Gemini 3.1 Flash Image]]></category>
		<category><![CDATA[generación de imágenes]]></category>
		<category><![CDATA[Google Ads IA]]></category>
		<category><![CDATA[Google Cloud Vertex AI]]></category>
		<category><![CDATA[Google Gemini app]]></category>
		<category><![CDATA[Google IA]]></category>
		<category><![CDATA[imágenes 4K con IA]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[Nano Banana 2]]></category>
		<category><![CDATA[Nano Banana Pro]]></category>
		<category><![CDATA[SynthID]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=581458</guid>

					<description><![CDATA[Google presentó oficialmente Nano Banana 2, la nueva versión de su modelo de generación de imágenes integrado en Gemini. La actualización llega meses después de que la primera edición se volviera viral por su capacidad de editar y crear imágenes con inteligencia artificial desde texto y referencias visuales. La nueva versión, conocida técnicamente como Gemini [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Google presentó oficialmente Nano Banana 2, la nueva versión de su modelo de generación de imágenes integrado en Gemini. La actualización llega meses después de que la primera edición se volviera viral por su capacidad de editar y crear imágenes con inteligencia artificial desde texto y referencias visuales.</p>
<p><span id="more-581458"></span></p>
<p>La nueva versión, conocida técnicamente como Gemini 3.1 Flash Image, combina la velocidad de los modelos Flash con varias funciones que hasta ahora estaban reservadas para Nano Banana Pro. El resultado es un sistema más rápido, pero con mayor precisión visual y mejor comprensión de instrucciones complejas.</p>
<p>Nano Banana 2 incorpora conocimiento actualizado del mundo real gracias a la integración con la base de datos de Gemini y resultados de búsqueda web. Esto le permite representar conceptos específicos con mayor exactitud, generar infografías detalladas y convertir apuntes en diagramas visuales listos para usar.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/claude-sonnet-4-6-programacion-1-millon-tokens/" target="_blank" rel="noopener">Anthropic lanza Claude Sonnet 4.6 con 1 millón de tokens y mejor programación</a></h3>
<p>Otro avance relevante está en la generación de texto dentro de las imágenes, pues el modelo puede producir palabras legibles y coherentes para piezas publicitarias, tarjetas o maquetas. Además, permite traducir y localizar textos directamente en la imagen, una función pensada para campañas internacionales y contenidos multilingües.</p>
<p>En términos técnicos, ofrece control sobre relaciones de aspecto y resoluciones que van desde 512 píxeles hasta 4K. Esto facilita la creación de contenidos tanto para redes sociales verticales como para pantallas de alta definición.</p>
<h2>Más coherencia y mayor fidelidad visual</h2>
<p>Una de las mejoras más visibles frente a la<a href="https://www.enter.co/chips-bits/apps-software/google-presenta-nano-banana-pro-y-anuncia-su-integracion-directa-en-el-buscador/" target="_blank" rel="noopener"> versión anterior</a> es la coherencia narrativa. Nano Banana 2 puede mantener la semejanza de hasta cinco personajes y conservar la fidelidad de hasta 14 objetos dentro de una misma secuencia de trabajo. Esto permite desarrollar guiones gráficos o piezas con continuidad visual sin alterar rasgos clave.</p>
<p>También mejora el seguimiento de instrucciones detalladas. El sistema interpreta mejor matices y condiciones específicas, reduciendo inconsistencias que antes requerían varias correcciones.</p>
<p>En el apartado visual, la actualización introduce iluminación más vibrante, texturas enriquecidas y mayor nitidez. Google sostiene que el modelo reduce la brecha entre velocidad y calidad, dos variables que tradicionalmente implicaban sacrificios en herramientas de generación automática.</p>
<p>Pese al lanzamiento de esta nueva versión, <a href="https://www.enter.co/especiales/dev/inteligencia-artificial/probamos-nano-banana-sorprende-al-colorear-fotos-en-blanco-y-negro-sin-alterar-los-rasgos-ni-los-tonos-reales-de-piel-y-y-crea-retratos-realistas-en-segundos/" target="_blank" rel="noopener">Nano Banana Pro</a> no desaparece. Google mantendrá esa opción para tareas que demandan máxima precisión factual o proyectos especializados. Nano Banana 2, en cambio, apunta a quienes necesitan rapidez, iteraciones ágiles y acceso integrado a búsqueda de imágenes.</p>
<p>La herramienta comenzó a desplegarse este 26 de febrero en distintos productos de la compañía. Está disponible en la app Gemini, donde reemplaza a Nano Banana Pro en los modos Fast, Thinking y Pro. Los suscriptores de Google AI Pro y Ultra seguirán teniendo acceso a la versión Pro desde el menú de configuración.</p>
<p>También llega al Buscador en modo AI y Lens, a AI Studio y la API de Gemini en vista previa, a Google Cloud mediante Vertex AI, a Flow como modelo predeterminado sin consumo de créditos y a Google Ads para apoyar la creación de campañas.</p>
<p>El lanzamiento incluye avances en trazabilidad. Google integra su tecnología SynthID junto con credenciales C2PA para identificar contenido generado con inteligencia artificial y ofrecer mayor transparencia sobre su origen.</p>
<p><em>Imagen: Google</em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/especiales/dev/inteligencia-artificial/google-lanza-nano-banana-2-que-cambia-y-donde-ya-esta-disponible-el-nuevo-modelo-de-imagenes/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>¿Cómo usar Flood Hub de Google para saber si tu ciudad está en riesgo de inundación?</title>
		<link>https://www.enter.co/chips-bits/apps-software/como-usar-flood-hub-de-google-para-saber-si-tu-ciudad-esta-en-riesgo-de-inundacion/</link>
					<comments>https://www.enter.co/chips-bits/apps-software/como-usar-flood-hub-de-google-para-saber-si-tu-ciudad-esta-en-riesgo-de-inundacion/#respond</comments>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 03 Feb 2026 16:25:47 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[alertas de inundación]]></category>
		<category><![CDATA[Cambio Climático]]></category>
		<category><![CDATA[clima en Colombia]]></category>
		<category><![CDATA[Flood Hub]]></category>
		<category><![CDATA[Google Flood Hub]]></category>
		<category><![CDATA[Google IA]]></category>
		<category><![CDATA[Herramientas de Google]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[inundaciones en Colombia]]></category>
		<category><![CDATA[mapas de inundación]]></category>
		<category><![CDATA[prevención de desastres]]></category>
		<category><![CDATA[pronóstico del tiempo]]></category>
		<category><![CDATA[riesgo de inundaciones]]></category>
		<category><![CDATA[tecnología y clima]]></category>
		<category><![CDATA[temporada de lluvias]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=580434</guid>

					<description><![CDATA[Colombia atraviesa actualmente su temporada de lluvias, un periodo que suele traer consigo emergencias por desbordamientos de ríos, afectaciones viales y evacuaciones preventivas en varias regiones del país. En este contexto, anticiparse al riesgo se vuelve clave, y la tecnología empieza a jugar un papel cada vez más relevante. Una de esas herramientas es Flood [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Colombia atraviesa <a href="https://sites.research.google/floods/l/6.016393079281783/-74.33900608760857/5.38578050357108/p/ChIJo5QVrjqkFY4RQKPy7wSaDZo" target="_blank" rel="noopener">actualmente su temporada de lluvias, un periodo que suele traer consigo emergencias por desbordamientos de ríos</a>, afectaciones viales y evacuaciones preventivas en varias regiones del país. En este contexto, anticiparse al riesgo se vuelve clave, y la tecnología empieza a jugar un papel cada vez más relevante. Una de esas herramientas es <a href="https://www.enter.co/chips-bits/apps-software/flood-hub-la-plataforma-de-google-para-predecir-inundaciones-cuales-son-las-zonas-mas-vulnerables-en-colombia/" target="_blank" rel="noopener">Flood Hub</a>, la plataforma gratuita de Google diseñada para alertar sobre posibles inundaciones.</p>
<p><span id="more-580434"></span></p>
<p>Flood Hub no es una aplicación que deba descargarse. Se trata de una <a href="https://www.enter.co/empresas/seguridad/google-eliminara-su-herramienta-para-detectar-datos-filtrados-en-la-dark-web-como-protegerse/" target="_blank" rel="noopener">herramienta web</a> que puede consultarse desde cualquier navegador, tanto en computador como en celular, y que permite conocer si una zona específica tiene riesgo de inundación fluvial, con información actualizada y proyecciones a corto plazo.</p>
<h2>Qué es Flood Hub y para qué sirve</h2>
<p>Flood Hub es un sistema de pronóstico de inundaciones que utiliza inteligencia artificial, modelos hidrológicos y datos ambientales para anticipar el comportamiento de ríos y cuencas. Su objetivo principal es <strong>ofrecer información clara y anticipada a ciudadanos, comunidades y autoridades,</strong> especialmente en regiones donde las lluvias pueden generar emergencias en cuestión de horas.</p>
<p>Actualmente, la herramienta funciona en más de 80 países, incluidos varios de América Latina. Colombia hace parte de esa cobertura, lo que permite consultar zonas en riesgo durante episodios de lluvias intensas.</p>
<h2>Paso a paso: cómo funciona Flood Hub</h2>
<p>El primer paso ocurre en segundo plano. Flood Hub recopila datos públicos relacionados con lluvias, niveles de ríos y condiciones meteorológicas, además de imágenes satelitales. Toda esta información se actualiza de forma constante.</p>
<p>Luego entra en acción la<a href="https://www.enter.co/chips-bits/apps-software/las-dos-herramientas-que-lanzo-microsoft-para-que-no-desarrolladores-creen-webs-y-apps/" target="_blank" rel="noopener"> inteligencia artificial</a>. <strong>El sistema utiliza dos modelos principales.</strong> El primero estima cuánta agua va a circular por un río tras varios días de lluvia. El segundo toma ese cálculo y lo traduce en un mapa físico, mostrando hasta dónde podría extenderse una inundación y qué zonas quedarían afectadas.</p>
<p>El resultado se presenta en un mapa interactivo, donde el usuario puede buscar su ciudad o región. Las áreas aparecen señalizadas según el nivel de riesgo, lo que permite identificar rápidamente si existe una amenaza potencial.</p>
<p><img fetchpriority="high" decoding="async" class="wp-image-580438 aligncenter" src="https://www.enter.co/wp-content/uploads/2026/02/Captura-de-pantalla-2026-02-03-112613-300x162.png" alt="" width="559" height="302" srcset="https://www.enter.co/wp-content/uploads/2026/02/Captura-de-pantalla-2026-02-03-112613-300x162.png 300w, https://www.enter.co/wp-content/uploads/2026/02/Captura-de-pantalla-2026-02-03-112613-1024x552.png 1024w, https://www.enter.co/wp-content/uploads/2026/02/Captura-de-pantalla-2026-02-03-112613-768x414.png 768w, https://www.enter.co/wp-content/uploads/2026/02/Captura-de-pantalla-2026-02-03-112613-1536x828.png 1536w, https://www.enter.co/wp-content/uploads/2026/02/Captura-de-pantalla-2026-02-03-112613.png 1919w" sizes="(max-width: 559px) 100vw, 559px" /></p>
<h2>Alertas, predicciones y actualizaciones</h2>
<p>Uno de los puntos clave de Flood Hub es que ofrece predicciones con hasta siete días de anticipación. Esto no significa que el evento sea seguro, pero sí permite visualizar escenarios probables y prepararse con tiempo.</p>
<p>Además, la información se actualiza de forma continua. Si las lluvias aumentan o el nivel de un río cambia rápidamente, el sistema ajusta sus proyecciones. En algunos casos, estas alertas también aparecen directamente en búsquedas relacionadas con el clima dentro de Google.</p>
<p>En una temporada de lluvias como la que vive<a href="https://www.enter.co/chips-bits/apps-software/pain-rose-app-colombiana-permite-medir-el-dolor-en-recien-nacidos/" target="_blank" rel="noopener"> Colombia</a>, Flood Hub se presenta como una herramienta útil para entender el riesgo, tomar decisiones informadas y, sobre todo, no reaccionar cuando ya es demasiado tarde.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/chips-bits/apps-software/como-usar-flood-hub-de-google-para-saber-si-tu-ciudad-esta-en-riesgo-de-inundacion/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>La IA de Google que pretende ayudarte a brillar en tu próxima entrevista laboral</title>
		<link>https://www.enter.co/chips-bits/apps-software/la-ia-de-google-que-pretende-ayudarte-a-brillar-en-tu-proxima-entrevista-laboral/</link>
		
		<dc:creator><![CDATA[Andrea Mercado]]></dc:creator>
		<pubDate>Mon, 23 May 2022 16:45:15 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[consejos para entrevistas de trabajo]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=524128</guid>

					<description><![CDATA[El éxito en una entrevista laboral puede relacionarse con el cuidado de los pequeños detalles. Y aunque los reclutadores por lo general, buscan ver más allá del candidato a una vacante para encontrar a la persona genuina que hay detrás, nunca deja de ser un buen hábito el preparar previamente tus posibles respuestas a las [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El éxito en una entrevista laboral puede relacionarse con el cuidado de los pequeños detalles. Y aunque los reclutadores por lo general, buscan ver más allá del candidato a una vacante para encontrar a la persona genuina que hay detrás, nunca deja de ser un buen hábito el preparar previamente tus posibles respuestas a las cuestiones que casi siempre surgen en medio de una entrevista.</p>
<p><span id="more-524128"></span></p>
<p>Para hacerte las cosas más sencillas y que puedas tener un mayor control sobre la calidad de tus intervenciones, <a href="https://www.enter.co/empresas/colombia-digital/ok-google-desaparece-asi-se-activara-ahora-el-asistente-de-google/" target="_blank" rel="noopener">Google</a> diseñó una Inteligencia Artificial que te aconsejará cómo puedes responder mejor a las preguntas que puede hacerte un reclutador y mejorar tu desempeño en una entrevista laboral.</p>
<p>Se llama <a href="https://grow.google/certificates/interview-warmup/" target="_blank" rel="noopener">Interview Warmup</a>, y como su nombre lo indica: te servirá de entrenamiento previo a tu primer encuentro con el área de talento humano de una compañía. La plataforma está enfocada en varios campos de trabajo que determinarán las preguntas. Algunas de ellas tienen que ver con las posibles preguntas que te haría un reclutador para departamentos como el de análisis de datos, e-commerce, soporte tecnológico, gerencia de proyectos, diseño UX, entre otros.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/empleos-dev/los-errores-que-debes-evitar-en-una-entrevista-de-trabajo-tec/" target="_blank" rel="noopener">Los errores que debes evitar en una entrevista de trabajo tech</a></h3>
<p>La idea de esta herramienta es que selecciones el área a la que deseas aplicar y respondas verbal o textualmente cinco preguntas que diseña Google. El cuestionario es aleatorio, lo que quiere decir que si decides ensayar varias veces es probable que te encuentres siempre con preguntas diferentes. Una vez las respondas todas, la IA te arrojará una especie de evaluación respecto a tu participación, la cual también incluirá consejos y sugerencias que te ayudarán a mejorar tu presentación en la vida real, como el incremento en el uso de ciertas palabras clave para demostrar tus conocimientos.</p>
<p>Las preguntas dependen de tu área de interés, por lo cual si seleccionas (a modo de ejemplo) el apartado dedicado a e-commerce, tendrás que contestar algunas del tipo &#8220;cuéntame sobre ti&#8221;, &#8220;¿cómo ha sido tu experiencia has tenido en la creación de contenido?&#8221;, o &#8220;¿qué harías si la empresa comienza a recibir una avalancha de malos comentarios en Internet?&#8221;.</p>
<p>Interview Warmup aún no está disponible en español. Sin embargo, a pesar de la limitación, también puede ser una plataforma que puede ayudarte, en el caso de que quieras participar en el proceso de selección de una compañía internacional, a estructurar de forma profesional tus respuestas en inglés, ya que la IA también es capaz de señalarte si has usado las mismas palabras más de tres veces.</p>
<p><em>Imágenes: Unsplash</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Puede la inteligencia artificial reconocer a humanos felices?</title>
		<link>https://www.enter.co/cultura-digital/ciencia/inteligencia-artificial-para-humanos-felices/</link>
		
		<dc:creator><![CDATA[Colaboradores ENTER.CO]]></dc:creator>
		<pubDate>Mon, 19 Feb 2018 15:00:48 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[experimentos de google]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[Inteligencia artificial y humanos]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=369531</guid>

					<description><![CDATA[*Por: Diana Arias Un equipo de Google quiere crear inteligencia artificial que responda a las expresiones faciales de los humanos como claves para adaptarse socialmente. Todos los días, voluntarios se sientan y observan dibujos creados por una AI (inteligencia artificial, por sus siglas en inglés). Cuando la gente sonríe ante el dibujo, la máquina lo [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><em>*Por: Diana Arias</em></p>
<p><span style="font-weight: 400;">Un equipo de Google quiere crear inteligencia artificial que responda a las expresiones faciales de los humanos como claves para adaptarse socialmente. Todos los días, voluntarios se sientan y observan dibujos creados por una AI (inteligencia artificial, por sus siglas en inglés). Cuando la gente sonríe ante el dibujo, la máquina lo registra como una reacción positiva. Cuando las personas lucen confundidas o hacen gestos de confusión se registra como una respuesta negativa.</span></p>
<p><img decoding="async" class="alignnone size-large wp-image-369536" src="https://www.enter.co/wp-content/uploads/2018/02/Captura-de-pantalla-2018-02-19-a-las-9.18.51-a.-m.-1024x476.png" alt="Inteligencia artificial" width="1024" height="476" /></p>
<p><span style="font-weight: 400;">Además de crear una AI que responda de manera más empática a las reacciones humanas, también se está probando qué tan efectivamente la máquina puede programarse a sí misma sin códigos. La idea es que reúna información y se adapte a partir de esta. </span></p>
<p><span style="font-weight: 400;">Según el sitio web, </span><a href="https://qz.com/1209466/google-is-building-ai-to-make-humans-smile/"><span style="font-weight: 400;">The Quartz,</span></a><span style="font-weight: 400;"> el experimento puede parecer muy simple, pero en realidad es un paso más para hacer de la inteligencia artificial más segura a largo plazo. Las máquinas se adaptarán a las expresiones faciales y lenguaje corporal y  así aprenderán qué hace felices a los humanos.</span></p>
<h2>Otras AI explorando la felicidad humana</h2>
<p><span style="font-weight: 400;">Así mismo, la inteligencia artificial podría aprender como instigar miedo o disgusto, lo que ha sido </span><a href="http://nightmare.mit.edu/"><span style="font-weight: 400;">explorado por el MIT</span></a><span style="font-weight: 400;">. Sin embargo, Google quiere concentrarse en el lado positivo y no es la única empresa con esta misión.</span></p>
<p><img decoding="async" class="alignnone size-large wp-image-369535" src="https://www.enter.co/wp-content/uploads/2018/02/robot-507811_1920-1024x724.jpg" alt="Inteligencia artificial" width="1024" height="724" srcset="https://www.enter.co/wp-content/uploads/2018/02/robot-507811_1920-1024x724.jpg 1024w, https://www.enter.co/wp-content/uploads/2018/02/robot-507811_1920-300x212.jpg 300w, https://www.enter.co/wp-content/uploads/2018/02/robot-507811_1920-768x543.jpg 768w, https://www.enter.co/wp-content/uploads/2018/02/robot-507811_1920-1536x1086.jpg 1536w, https://www.enter.co/wp-content/uploads/2018/02/robot-507811_1920.jpg 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p><span style="font-weight: 400;">Empresas como </span><a href="https://www.affectiva.com/"><span style="font-weight: 400;">Affectiva</span></a><span style="font-weight: 400;"> han explorado la inteligencia artificial emocional o la ciencia de entender las expresiones faciales y claves sociales de los humanos para responder a sus necesidades. Por ejemplo, Affectiva trabaja en un carro con piloto automático que pueda entender a su conductor y activarse por si solo. </span></p>
<p><span style="font-weight: 400;">Este no es el primer experimento de </span><a href="https://experiments.withgoogle.com/ai"><span style="font-weight: 400;">Google con AI</span></a><span style="font-weight: 400;">. En sus página web, donde presenta los experimentos que realiza, se puede ver como Google se ha enfocado en máquinas que aprendan por sí mismas. En el 2017, había presentado una app donde el usuario dibujaba de manera aleatoria y </span><a href="https://experiments.withgoogle.com/ai/quick-draw"><span style="font-weight: 400;">el sistema trataba de adivinar</span></a><span style="font-weight: 400;"> que se estaba dibujando. La aplicación aprendía a medida que se usaba. La AI mostraba entendimiento y empezaba a dar respuestas correctas y con mayor velocidad, con aquellos que dibujaban por más tiempo. </span></p>
<p><span style="font-weight: 400;">“Una Inteligencia artificial motivada hacia la satisfacción y sus expresiones estaría menos inclinada a actuar en contra de los humanos y sus intereses”, escribe uno de los investigadores de Google en su página de experimentos. “Un asistente de hogar no repetiría un error al ver al usuario responder con frustración o mal genio. Estamos programando el algoritmo para no repetir la acción que causa frustración en el usuario”, concluye.   </span></p>
<p><em>Imágenes: Captura de pantalla y pixbay</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Nominada a innovación del año: inteligencia artificial</title>
		<link>https://www.enter.co/premios/premios2016/nominada-a-innovacion-del-ano-inteligencia-artificial/</link>
					<comments>https://www.enter.co/premios/premios2016/nominada-a-innovacion-del-ano-inteligencia-artificial/#comments</comments>
		
		<dc:creator><![CDATA[ENTER.CO]]></dc:creator>
		<pubDate>Thu, 22 Dec 2016 12:00:16 +0000</pubDate>
				<category><![CDATA[Premios 2016]]></category>
		<category><![CDATA[innovación del año]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial apple]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[premios enter]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=272557</guid>

					<description><![CDATA[Desde hace varios años hemos escuchado de los avances de la inteligencia artificial, y cómo los científicos e ingenieros de importantes compañías la están usando. Sin embargo este año vimos cómo estos sistemas se han incrustado cada vez más en los servicios que usamos a diario en internet: desde redes sociales hasta la publicidad que [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_272560" aria-describedby="caption-attachment-272560" style="width: 1024px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-272560" src="https://www.enter.co/wp-content/uploads/2016/12/email-503594_1920.jpg" alt="¿Qué nos aportó la Inteligencia artificial este año?" width="1024" height="768" srcset="https://www.enter.co/wp-content/uploads/2016/12/email-503594_1920.jpg 1024w, https://www.enter.co/wp-content/uploads/2016/12/email-503594_1920-300x225.jpg 300w, https://www.enter.co/wp-content/uploads/2016/12/email-503594_1920-768x576.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption id="caption-attachment-272560" class="wp-caption-text">¿Qué nos aportó la Inteligencia artificial este año?</figcaption></figure>
<p><span style="font-weight: 400;">Desde hace varios años hemos escuchado </span><a href="http://www.enter.co/chips-bits/seguridad/el-dilema-de-la-inteligencia-artificial/"><span style="font-weight: 400;">de los avances de la inteligencia artificial</span></a><span style="font-weight: 400;">, y cómo los científicos e ingenieros de importantes compañías la están usando. Sin embargo este año vimos cómo estos sistemas se han incrustado cada vez más en los servicios que usamos a diario en internet: desde redes sociales hasta la publicidad que se nos muestra. Además, la AI dio grandes pasos este año en cuanto a aplicaciones concretas que nunca antes habíamos visto. Es por eso que la nominamos a innovación del año. </span><span id="more-272557"></span></p>
<p><span style="font-weight: 400;">Una de las plataformas que más usa AI es Facebook, y sus sistemas están siendo entrenados para aplicaciones útiles y de seguridad, </span><a href="http://www.enter.co/cultura-digital/redes-sociales/facebook-usa-ai-para-detectar-fotos-ofensivas/"><span style="font-weight: 400;">como detectar fotos ofensivas</span></a><span style="font-weight: 400;">. La compañía también está usando su AI para ‘leer’ todo lo se publica en la red social y crear una especie de </span><a href="http://www.enter.co/cultura-digital/redes-sociales/la-inteligencia-artificial-de-fb-leera-todo-el-texto-publicado/"><span style="font-weight: 400;">‘navegador’ interno dentro de la misma</span></a><span style="font-weight: 400;">. Ya lo podemos ver cuando buscamos nombres o marcas en el buscador: nos aparecen resultados como si estuviéramos en Google. </span></p>
<p><span style="font-weight: 400;">Google, por su parte, es quizá la compañía con más avances este año en inteligencia artificial. Desde comienzos del año nos impresionó con el logro de su sistema, que pudo </span><a href="http://www.enter.co/chips-bits/apps-software/alphago-logra-otra-estrella-entre-la-batalla-entre-ai-y-los-humanos/"><span style="font-weight: 400;">vencer al mejor jugador del mundo en el juego de estrategia Go.</span></a><span style="font-weight: 400;"> Más adelante la compañía nos mostró cómo sus sistemas son capaces de resolver laberintos con tan </span><a href="http://www.enter.co/chips-bits/apps-software/mira-a-la-inteligencia-artificial-de-google-resolviendo-laberintos/"><span style="font-weight: 400;">solo estudiar los estímulos visuales en el escenario</span></a><span style="font-weight: 400;">. De hecho Google recién abrió la plataforma de entrenamiento de laberintos al público para que cualquier investigador pueda entrenar a sus máquinas ahí. </span></p>
<p><span style="font-weight: 400;">Este año Google también logró por primera vez que una máquina </span><a href="http://www.enter.co/chips-bits/apps-software/la-inteligencia-artificial-de-google-compuso-su-primera-melodia/"><span style="font-weight: 400;">compusiera una melodía desde 0. </span></a><span style="font-weight: 400;">Y también creó un sistema de AI que </span><a href="http://www.enter.co/chips-bits/apps-software/escucha-a-la-inteligencia-artificial-de-google-crear-voces-realistas/"><span style="font-weight: 400;">simula voces humanas realistas</span></a><span style="font-weight: 400;"> y que podría ser usado en los asistentes personales de nuestros celulares. </span></p>
<p><span style="font-weight: 400;">En 2016, Apple dio sus primero pasos en anunciar que comenzará a entrenar sus sistemas de AI, pero con un enfoque distinto, </span><a href="http://www.enter.co/chips-bits/seguridad/apple-habria-resuelto-el-pecado-original-de-la-inteligencia-artificial/"><span style="font-weight: 400;">basado en la privacidad de los usuarios.</span></a><span style="font-weight: 400;"> Es decir, que la información que se use para entrenar a sus máquinas será estrictamente autorizada por los usuarios Apple. </span></p>
<p><span style="font-weight: 400;">Y así, podemos tener casi seguro que la inteligencia artificial seguirá rondando los titulares y seguirá entrando cada vez a más servicios que usamos a diario. La tecnología aún no ha llegado a su máxima expresión y aún faltan ajustes de seguridad que preocupan a un pequeño nicho de expertos, pero las utilidades que trae la AI son sin duda superiores.</span></p>
<p><a href="http://www.enter.co/premios/2016/" target="_blank">Conoce todos los nominados a esta categoría. </a></p>
<p><a href="https://goo.gl/forms/ILHSk8LFEojEXZGz2" target="_blank"><img loading="lazy" decoding="async" class=" size-full wp-image-272469 aligncenter" src="https://www.enter.co/wp-content/uploads/2016/12/boton_premios.jpg" alt="boton_premios" width="422" height="53" srcset="https://www.enter.co/wp-content/uploads/2016/12/boton_premios.jpg 422w, https://www.enter.co/wp-content/uploads/2016/12/boton_premios-300x38.jpg 300w" sizes="auto, (max-width: 422px) 100vw, 422px" /></a></p>
<p><em>Imagen: Pixabay. </em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/premios/premios2016/nominada-a-innovacion-del-ano-inteligencia-artificial/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Escucha a la inteligencia artificial de Google crear voces realistas</title>
		<link>https://www.enter.co/chips-bits/apps-software/escucha-a-la-inteligencia-artificial-de-google-crear-voces-realistas/</link>
					<comments>https://www.enter.co/chips-bits/apps-software/escucha-a-la-inteligencia-artificial-de-google-crear-voces-realistas/#comments</comments>
		
		<dc:creator><![CDATA[Susana Angulo]]></dc:creator>
		<pubDate>Fri, 09 Sep 2016 20:54:59 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[convertir texto a voz]]></category>
		<category><![CDATA[google deep mind]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[voces reales]]></category>
		<category><![CDATA[wavenet]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=261125</guid>

					<description><![CDATA[La división de inteligencia artificial de Google, DeepMind, acaba de presentar una maquina que produce las voces humanas más realistas hasta el momento. El sistema, llamado WaveNet, genera voces con tan solo una muestra de voz humana real y crea ondas de audio basado en la muestra, según informó The Verge. Google publicó un reporte [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_261134" aria-describedby="caption-attachment-261134" style="width: 1024px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-261134" src="https://www.enter.co/wp-content/uploads/2016/09/hand-977641_1280.jpg" alt="Las voces creadas en computador suelen sonar artificiales. " width="1024" height="768" srcset="https://www.enter.co/wp-content/uploads/2016/09/hand-977641_1280.jpg 1024w, https://www.enter.co/wp-content/uploads/2016/09/hand-977641_1280-300x225.jpg 300w, https://www.enter.co/wp-content/uploads/2016/09/hand-977641_1280-768x576.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption id="caption-attachment-261134" class="wp-caption-text">Las voces creadas en computador suelen sonar artificiales.</figcaption></figure>
<p><span style="font-weight: 400;">La división de<a href="http://www.enter.co/chips-bits/apps-software/google-le-enseno-a-una-hormiga-virtual-a-jugar-futbol/" target="_blank"> inteligencia artificial de Google, DeepMind,</a> acaba de presentar una maquina que produce las voces humanas más realistas hasta el momento. El sistema, llamado WaveNet, genera voces con tan solo una muestra de voz humana real y crea ondas de audio basado en la muestra, </span><a href="http://www.theverge.com/2016/9/9/12860866/google-deepmind-wavenet-ai-text-to-speech-synthesis"><span style="font-weight: 400;">según informó The Verge</span></a><span style="font-weight: 400;">. </span><span id="more-261125"></span></p>
<p><a href="https://deepmind.com/blog/wavenet-generative-model-raw-audio/"><span style="font-weight: 400;">Google publicó un reporte completo</span></a><span style="font-weight: 400;"> y un artículo para el público, junto a muestras de audio de lo que es capaz de hacer su sustema. En todas las pruebas que escuchamos, que están en inglés y en mandarín, WaveNet demuestra que es mucho más realista que otros programas que pasan el texto a sonido, aunque aún no llega a ser completamente igual al discurso humano. Además de las voces, el sistema también puede tocar el piano. </span></p>
<p><span style="font-weight: 400;">Los programas de ‘texto a voz’ cada vez son más importante para la computación porque las personas están necesitando más de bots y asistentes personales con AI, como Siri, Cortana, Alexa y Google Assistant.</span></p>
<p><span style="font-weight: 400;">Sin embargo, cuando le haces una pregunta a Siri o Cortana, estos sistemas responden con grabaciones de una voz humana, reacomodadas y combinadas en pequeñas partes. Este método se conoce como ‘texto a voz’ concatenante. Los resultados son relativamente realistas, pero como explica Google, producir una nueva voz o tono requiere tener a un actor que grabe todos los sonidos posibles para que se guarden en una base de datos. Esta es una muestra de ese tipo de voz.</span></p>
<audio class="wp-audio-shortcode" id="audio-261125-1" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.enter.co/wp-content/uploads/2016/09/googleconce.wav?_=1" /><a href="https://www.enter.co/wp-content/uploads/2016/09/googleconce.wav">https://www.enter.co/wp-content/uploads/2016/09/googleconce.wav</a></audio>
<p>El método alternativo es el ‘texto a voz’ paramétrico, que consiste en construir voces generadas por computador. Esto se logra usando reglas codificadas basadas en la gramática o en los sonidos vocales. Las voces paramétricas no necesitan materiales base para producir voces, pero los resultados, generalmente, son robóticos y artificiales. Escucha aquí este método.</p>
<audio class="wp-audio-shortcode" id="audio-261125-2" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.enter.co/wp-content/uploads/2016/09/parametric-1.wav?_=2" /><a href="https://www.enter.co/wp-content/uploads/2016/09/parametric-1.wav">https://www.enter.co/wp-content/uploads/2016/09/parametric-1.wav</a></audio>
<p>Por su parte, el sistema de Google aún está basado en una muestra inicial real, pero en lugar de recortar las grabaciones, el sistema aprende de ellas e independientemente crea sus propios sonidos en una variedad de voces. De hecho, WaveNet solo conoce los sonidos de los idiomas, no su contenido. Para construir discursos con sentido, Google moldea los resultados con reglas lingüísticas y sugerencias. Así suena:</p>
<audio class="wp-audio-shortcode" id="audio-261125-3" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.enter.co/wp-content/uploads/2016/09/wavenet-2.wav?_=3" /><a href="https://www.enter.co/wp-content/uploads/2016/09/wavenet-2.wav">https://www.enter.co/wp-content/uploads/2016/09/wavenet-2.wav</a></audio>
<audio class="wp-audio-shortcode" id="audio-261125-4" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.enter.co/wp-content/uploads/2016/09/wavenet.wav?_=4" /><a href="https://www.enter.co/wp-content/uploads/2016/09/wavenet.wav">https://www.enter.co/wp-content/uploads/2016/09/wavenet.wav</a></audio>
<p><span style="font-weight: 400;">Adicionalmente, el sistema en sí no está construido únicamente para hablar. También es capaz de otras labores, como tocar el piano. Sin embargo esto podría no sorprender, porque ya existen varios sistemas que autogeneran música y no es tan complicado como crear voces humanas. Además, la AI ya<a href="http://www.enter.co/chips-bits/apps-software/la-inteligencia-artificial-de-google-compuso-su-primera-melodia/" target="_blank"> es capaz de componer música</a> por sí misma. </span></p>
<audio class="wp-audio-shortcode" id="audio-261125-5" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.enter.co/wp-content/uploads/2016/09/googlepiano.wav?_=5" /><a href="https://www.enter.co/wp-content/uploads/2016/09/googlepiano.wav">https://www.enter.co/wp-content/uploads/2016/09/googlepiano.wav</a></audio>
<p><span style="font-weight: 400;">Por ahora Google no tiene planeado usar WaveNet para sus productos, como Google Assistant, porque el sistema requiere una gran cantidad de energía y procesos complejos. Si quieres aprender a fondo cómo funciona este sistema puedes leer alguno </span><a style="line-height: 1.5;" href="https://drive.google.com/file/d/0B3cxcnOkPx9AeWpLVXhkTDJINDQ/view">de los dos</a> <a style="line-height: 1.5;" href="http://static.googleusercontent.com/media/research.google.com/en//pubs/archive/45379.pdf">reportes científicos</a><span style="font-weight: 400;"> publicados.</span></p>
<p><em>Imagen: Pixabay. </em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/chips-bits/apps-software/escucha-a-la-inteligencia-artificial-de-google-crear-voces-realistas/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		<enclosure url="https://www.enter.co/wp-content/uploads/2016/09/googleconce.wav" length="159396" type="audio/wav" />
<enclosure url="https://www.enter.co/wp-content/uploads/2016/09/parametric-1.wav" length="168946" type="audio/wav" />
<enclosure url="https://www.enter.co/wp-content/uploads/2016/09/wavenet-2.wav" length="138642" type="audio/wav" />
<enclosure url="https://www.enter.co/wp-content/uploads/2016/09/wavenet.wav" length="157242" type="audio/wav" />
<enclosure url="https://www.enter.co/wp-content/uploads/2016/09/googlepiano.wav" length="327724" type="audio/wav" />

			</item>
		<item>
		<title>Google estudia cómo apagar los sistemas de AI</title>
		<link>https://www.enter.co/cultura-digital/ciencia/google-estudia-como-apagar-los-sistemas-de-ai/</link>
					<comments>https://www.enter.co/cultura-digital/ciencia/google-estudia-como-apagar-los-sistemas-de-ai/#comments</comments>
		
		<dc:creator><![CDATA[Susana Angulo]]></dc:creator>
		<pubDate>Fri, 03 Jun 2016 18:30:18 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=248880</guid>

					<description><![CDATA[Actualmente estamos en uno de los momentos más decisivos en el desarrollo de la inteligencia artificial. Compañías como Google, Facebook, Amazon y Microsoft están invirtiendo fuertemente en crear tecnologías más avanzadas de AI. Sin embargo, hay muchos detractores de esta tecnología que advierten los posibles riesgos de la misma, como una posible &#8216;rebelión&#8217; en la [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_248882" aria-describedby="caption-attachment-248882" style="width: 1024px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-248882" src="https://www.enter.co/wp-content/uploads/2016/06/5382624995_a7ae6bd9d3_b.jpg" alt="Los computadores de AI podrían llegar a ser peligrosos. " width="1024" height="768" srcset="https://www.enter.co/wp-content/uploads/2016/06/5382624995_a7ae6bd9d3_b.jpg 1024w, https://www.enter.co/wp-content/uploads/2016/06/5382624995_a7ae6bd9d3_b-300x225.jpg 300w, https://www.enter.co/wp-content/uploads/2016/06/5382624995_a7ae6bd9d3_b-768x576.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption id="caption-attachment-248882" class="wp-caption-text">Los computadores de AI podrían llegar a ser peligrosos.</figcaption></figure>
<p><span style="font-weight: 400;">Actualmente estamos en uno de los momentos más decisivos en el <a href="http://www.enter.co/chips-bits/apps-software/la-inteligencia-artificial-de-google-compuso-su-primera-melodia/" target="_blank">desarrollo de la inteligencia artificial</a>. Compañías como Google,<a href="http://www.enter.co/cultura-digital/redes-sociales/la-inteligencia-artificial-de-fb-leera-todo-el-texto-publicado/" target="_blank"> Facebook, </a>Amazon y Microsoft están invirtiendo fuertemente en crear tecnologías más avanzadas de AI. Sin embargo, hay muchos detractores de esta tecnología que advierten los posibles riesgos de la misma, como una posible &#8216;rebelión&#8217; en la que las máquinas, por ser más inteligentes, no quieran obedecer a los humanos. </span><span id="more-248880"></span></p>
<p><span style="font-weight: 400;">Es por eso que un laboratorio de investigación de inteligencia artificial, que pertenece a Google, llevó a cabo un estudio en el que se desarrollan métodos para ‘desconectar’ por completo las máquinas de autoaprendizaje cuando se necesite, <a href="http://www.businessinsider.com/google-deepmind-develops-a-big-red-button-to-stop-dangerous-ais-causing-harm-2016-6" target="_blank">según informó BusinessInsider</a>. </span></p>
<p><span style="font-weight: 400;"><a href="http://www.enter.co/chips-bits/apps-software/mira-a-la-inteligencia-artificial-de-google-resolviendo-laberintos/" target="_blank">‘DeepMind’, que pertenece a Google</a> desde 2014, se alió con científicos de la Universidad de Oxford para encontrar una forma de asegurarse de que los sistemas de AI no aprendan a ser rebeldes, es decir, que siempre se dejen controlar por los humanos. </span></p>
<p><span style="font-weight: 400;"><a href="http://intelligence.org/files/Interruptibility.pdf" target="_blank">En un reporte</a> liderado por la investigadora Laurent Orseau, se explica que es poco probable que un agente de AI funcione siempre correctamente. Según los científicos, los agentes pueden requerir en algún momento de la intervención humana para suspender sus actividades si estas resultan dañinas tanto para el mismo sistema como para lo que le rodea. </span></p>
<p><span style="font-weight: 400;">Los investigadores aseguran haber encontrado un marco de acciones que permite a los operadores humanos apagar un computador de AI, cuantas veces sea necesario, mediante un interruptor. Además este plan evitaría que los sistemas aprendan a prevenir las interrupciones.</span></p>
<p><span style="font-weight: 400;">Durante el estudio, los científicos descubrieron que algunos algoritmos, como los ‘Q-learning’, ya son ‘apagables’ por defecto. Pero otros, como ‘Sarsa’, no lo son, pero se pueden modificar para que se puedan apagar. Sin embargo existen algunos que no se pueden suspender de una forma segura, aún si se intentan modificar. </span></p>
<p><span style="font-weight: 400;">El laboratorio aliado de Google se llama ‘The Future of Humanity Institute’, y en esta ocasión hacen un paralelo ideal, porque DeepMind quiere seguir desarrollando AI, mientras que el instituto investiga sobre las posibles amenazas de esa tecnología para nuestra existencia. Incluso, el director del instituto, Nick Bostrom, cree que en 100 años las máquinas serán más inteligentes que los humanos, y que tienen el potencial de volverse contra nosotros. En una conferencia el año pasado, Bostrom explicó que en esas circunstancias, la AI podría llegar a tener mucho poder, y nos pondría en una situación similar a los humanos y los animales: nosotros tenemos mejor cerebro que ellos. </span></p>
<p><span style="font-weight: 400;">Los fundadores de DeepMind son conscientes de ese riesgo, y decidieron que Google comprara la compañía con la condición de que se creara  una junta de ética que monitoree los avances que se hacen en área. No se sabe quienes conforman la junta. Pero es muy probable que las directivas de DeepMind decidan incorporar los descubrimientos de este reporte en sus próximos trabajos.</span></p>
<p><em>Imagen: <a class="owner-name truncate" title="Ir a la galería de Michael Cordedda" href="https://www.flickr.com/photos/mikeycordedda/" data-track="attributionNameClick" data-rapid_p="58">Michael Cordedda</a> (vía Flickr).</em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/cultura-digital/ciencia/google-estudia-como-apagar-los-sistemas-de-ai/feed/</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>Magenta es el nuevo proyecto de AI de Google</title>
		<link>https://www.enter.co/chips-bits/apps-software/magenta-el-nuevo-proyecto-de-ai-de-google/</link>
		
		<dc:creator><![CDATA[Susana Angulo]]></dc:creator>
		<pubDate>Mon, 23 May 2016 18:35:39 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[google brain]]></category>
		<category><![CDATA[google magenta]]></category>
		<category><![CDATA[inteligencia artificial google]]></category>
		<category><![CDATA[tensorflow]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=247644</guid>

					<description><![CDATA[Google le está apostando al arte desde varios de sus frentes de investigación. Desde una herramienta para pintar en realidad virtual, hasta una cámara que permite capturar en detalle las obras de arte más famosas del mundo. Ahora, el gigante intentará enseñarle a su sistema de inteligencia artificial a crear arte por sí mismo. Ayer [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_247651" aria-describedby="caption-attachment-247651" style="width: 1024px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-247651" src="https://www.enter.co/wp-content/uploads/2016/05/5716050539_72298780b6_b.jpg" alt="Este proyecto hace parte de la división de inteligencia artificial de Google. " width="1024" height="768" srcset="https://www.enter.co/wp-content/uploads/2016/05/5716050539_72298780b6_b.jpg 1024w, https://www.enter.co/wp-content/uploads/2016/05/5716050539_72298780b6_b-300x225.jpg 300w, https://www.enter.co/wp-content/uploads/2016/05/5716050539_72298780b6_b-768x576.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption id="caption-attachment-247651" class="wp-caption-text">Este proyecto hace parte de la división de inteligencia artificial de Google.</figcaption></figure>
<p>Google le está apostando al arte desde varios de sus frentes de investigación. Desde una <a href="http://www.enter.co/cultura-digital/el-popurri/google-tiene-una-respuesta-al-lugar-de-la-realidad-virtual-en-el-arte/" target="_blank">herramienta para pintar en realidad virtual,</a> hasta una<a href="http://www.enter.co/chips-bits/gadgets/google-tiene-una-nueva-camara-que-captura-resoluciones-muy-altas/" target="_blank"> cámara que permite capturar</a> en detalle las obras de arte más famosas del mundo. Ahora, el gigante intentará enseñarle a su sistema de inteligencia artificial a crear arte por sí mismo.</p>
<p><span style="font-weight: 400;">Ayer domingo, el investigador de Google Brain, </span><span style="font-weight: 400;"><a href="http://research.google.com/pubs/author39086.html" target="_blank">Douglas Eck</a>, </span><span style="font-weight: 400;">reveló que un grupo de científicos está experimentando con computadores de AI para hacerlos crear arte, música o video. Google Brain es el proyecto de investigación de inteligencia artificial de Google. Eck y algunos miembros de su equipo dieron esta información durante la sesión de clausura de un festival de música y tecnología en Carolina del Norte, Estados Unidos llamado Moogfest, según <a href="http://qz.com/689887/google-is-launching-a-new-research-project-to-see-if-computers-can-be-truly-creative/" target="_blank">informó Quartz</a>. </span><span id="more-247644"></span></p>
<p>El grupo de investigadores llamó a este proyecto Magenta, y será lanzado oficialmente el primero de junio. Pero durante este festival, los asistentes pudieron dar un vistazo a una pequeña muestra de lo que se quiere hacer con este proyecto.</p>
<p>Magenta usará <a href="https://www.tensorflow.org/" target="_blank">TensorFlow</a>, a máquina que puede aprender, la cual Google construyó y abrió al público en 2015. El objetivo de este proyecto es crear un sistema que pueda ofrecer a personas amantes de la música piezas nuevas, con tan solo dar la orden en un computador.</p>
<p>La tarea será difícil, ya que los sistemas de inteligencia artificial han tenido dificultades para copiar los estilos de músicos y artistas existentes, y crear ideas propias es aún más complicado. Pero Magenta será una herramienta que le servirá a otros investigadores a explorar el potencial creativo de los computadores.</p>
<p>Además, al igual que con TensorFlow, Magenta estará disponible para que el público experimente con el sistema. Inicialmente se lanzará un programa sencillo que ayudará a los investigadores a importar música de archivos MIDI a TensorFlow, lo cual permitirá al sistema a familiarizarse con el conocimiento musical.</p>
<p>Adam Roberts, un miembro del equipo Magenta, explicó que cuando se lance oficialmente el proyecto se dará más información al respecto y se agregará un nuevo software la página de GitHub del sistema, además de publicaciones en un nuevo blog.</p>
<p>Roberts hizo una demostración de uno de los programas en lo que está trabajando con Magenta, que pone al sistema a escuchar notas que él toca en el piano, y luego el computador reproduce otra melodía más completa con base en esas notas.</p>
<p><iframe loading="lazy" title="Google AI generating music on a digital synth at Moogfest" width="1104" height="621" src="https://www.youtube.com/embed/0iNhCGbgYUc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>De acuerdo con Eck, Magenta está inspirado en otros proyectos de Google Brain como Google DeepDream, en el cual los sistemas de inteligencia artificial están siendo entrenados para completar vacíos en fotos, y encontrar estructuras en imágenes que no están presentes en la foto. Esto a través de bases de datos de imágenes.</p>
<p>Eck explicó que su intención es que el sistema pueda crear música que llame la atención de las personas, y luego de que se conquiste el área musical, el equipo intentará con imágenes y videos de creación propia.</p>
<p>Google no espera que las creaciones de su sistema estén en los listados populares de música, sino que brinden música que sirva para algunas situaciones particulares. Por ejemplo, si una persona está monitoreando su ritmo cardíaco con un dispositivo que envía una señal de alerta por estrés a su smartphone, el sistema podría crear una melodía que pueda servirle a la persona para calmarse.</p>
<p><em>Imagen: <a class="owner-name truncate" title="Ir a la galería de hildgrim" href="https://www.flickr.com/photos/hildgrim/" data-track="attributionNameClick" data-rapid_p="58">hildgrim</a> (vía Flickr). </em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
