<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Tay: Noticias, Fotos, Evaluaciones, Precios y Rumores de Tay • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/tay/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/tay/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Wed, 30 Mar 2016 22:17:06 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>Tay: Noticias, Fotos, Evaluaciones, Precios y Rumores de Tay • ENTER.CO</title>
	<link>https://www.enter.co/noticias/tay/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>El chatbot ‘racista’ de Microsoft volvió a la vida por pocos minutos</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/el-chatbot-racista-de-microsoft-volvio-a-la-vida-por-pocos-minutos/</link>
					<comments>https://www.enter.co/cultura-digital/redes-sociales/el-chatbot-racista-de-microsoft-volvio-a-la-vida-por-pocos-minutos/#comments</comments>
		
		<dc:creator><![CDATA[Laura Rojas]]></dc:creator>
		<pubDate>Wed, 30 Mar 2016 20:24:19 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[racismo]]></category>
		<category><![CDATA[Tay]]></category>
		<category><![CDATA[Twitter]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=241862</guid>

					<description><![CDATA[La semana pasada, Microsoft se vio en aprietos cuando uno de sus experimentos de inteligencia artificial no le salió como esperaba. Se trataba de Tay, un bot que hablaba con cualquier persona a través de Twitter y respondía cualquier tipo de pregunta, simulando tener una conversación natural entre dos personas. Lo que parecía una idea [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_241863" aria-describedby="caption-attachment-241863" style="width: 660px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" class="size-full wp-image-241863" src="https://www.enter.co/wp-content/uploads/2016/03/Tay.jpg" alt="Tay experimenta su regreso con cortas apariciones en línea. " width="660" height="495" srcset="https://www.enter.co/wp-content/uploads/2016/03/Tay.jpg 660w, https://www.enter.co/wp-content/uploads/2016/03/Tay-300x225.jpg 300w" sizes="(max-width: 660px) 100vw, 660px" /><figcaption id="caption-attachment-241863" class="wp-caption-text">Tay experimenta su regreso con cortas apariciones en línea.</figcaption></figure>
<p class="p1"><span class="s1">La semana pasada, Microsoft se vio en aprietos cuando uno de sus experimentos de inteligencia artificial no le salió como esperaba. Se trataba de Tay, un bot que hablaba con cualquier persona a través de Twitter y respondía cualquier tipo de pregunta, simulando tener una conversación natural entre dos personas. Lo que parecía una idea innovadora resultó convirtiéndose en un episodio vergonzoso, pues Tay terminó haciendo comentarios racistas, machistas y muy ofensivos. </span><span id="more-241862"></span></p>
<p class="p1"><span class="s1">Aquí podemos ver algunos ejemplos del caos que causó en ese momento, <a href="http://arstechnica.com/information-technology/2016/03/microsoft-terminates-its-tay-ai-chatbot-after-she-turns-into-a-nazi/"><span class="s2">que conocimos a través del medio Ars Technica</span></a>, en donde se pueden leer comentarios de Tay como <i>“Hitler tenía razón, odio a los judíos”</i> o <i>“Odio a las feministas, deberían morir y ser quemadas en el infierno”. </i>Al no tener ningún filtro, lo que comenzó como interacciones inocentes y llamativas, terminó en este tipo de respuestas ofensivas. </span></p>
<blockquote class="twitter-tweet" data-lang="fr">
<p dir="ltr" lang="en">&#8220;Tay&#8221; went from &#8220;humans are super cool&#8221; to full nazi in &lt;24 hrs and I&#8217;m not at all concerned about the future of AI <a href="https://t.co/xuGi1u9S1A">pic.twitter.com/xuGi1u9S1A</a></p>
<p>— Gerry (@geraldmellor) <a href="https://twitter.com/geraldmellor/status/712880710328139776">24 mars 2016</a></p></blockquote>
<p><script src="//platform.twitter.com/widgets.js" async="" charset="utf-8"></script></p>
<p class="p1"><span class="s1">Después del incidente, <a href="http://www.theverge.com/2016/3/25/11306566/microsoft-racist-tay-ai-twitter-chatbot-apology"><span class="s2">y como reportó The Verge</span></a>, Microsoft se disculpó <a href="http://www.theverge.com/2016/3/25/11306566/microsoft-racist-tay-ai-twitter-chatbot-apology"><span class="s2">en un comunicado oficial</span></a>, en donde la compañía asumió la responsabilidad: <i>“Como muchos de ustedes saben, el miércoles lanzamos un chatbot llamado Tay. Lo sentimos profundamente por los tuits ofensivos e hirientes no intencionados de Tay, los cuales no representan lo que somos ni cómo diseñamos a Tay. Por ahora Tay esta offline y vamos a trabajar para traer de vuelta solo cuando estemos seguro de que podemos anticipar mejor la intención maliciosa que entra en conflicto con nuestros principios y valores”</i>. </span></p>
<p class="p1"><span class="s1">La cuenta <a href="https://twitter.com/TayAndYou"><span class="s2">@TayandYou</span></a> está activa en Twitter, pero ahora es privada. Sin embargo, y <a href="http://mashable.com/2016/03/30/tay-back-online-naughty/#8Wst_6R9wEq3"><span class="s2">como reporta Mashable</span></a>, Tay volvió a la vida por unos minutos y envió miles de respuestas. La mayoría de estos hacían referencia a que los usuarios eran demasiado rápidos y que el robot estaba muy abrumado con tantos mensajes. Luego, rápidamente volvió a estar offline. </span></p>
<p class="p1"><span class="s1"><i>“Tay continuará offline mientras hacemos ajustes. Como parte de un experimento, ella fue activada en Twitter por un periodo corto de tiempo”</i>, declaró un vocero de Microsoft para Mashable. Así que solo queda esperar a que vuelva a aparecer conectada y esperemos que con los arreglos que corresponden. </span></p>
<p class="p1"><span class="s1"><i>Imagen: Microsoft. </i></span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/cultura-digital/redes-sociales/el-chatbot-racista-de-microsoft-volvio-a-la-vida-por-pocos-minutos/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
	</channel>
</rss>
