El cerebro ‘frena’ el crecimiento de la información en el mundo

El cerebro humano es el principal obstáculo para el crecimiento de datos disponibles en Internet.
Científicos de la Universidad de Frankfurt pudieron establecer que la cantidad de información disponible en Internet no puede crecer más rápido que la capacidad del cerebro humano de analizarla.
Con el sistema más complejo del planeta sobre sus hombros, las personas no pueden decir que su cabeza no les alcanza para algo o que son estúpidas, solo pueden excusarse aceptando que les da pereza usar todo su potencial.

Si bien es cierto que cada persona tiene en su cabeza más conexiones que las que suman todas las redes físicas del mundo, la capacidad del cerebro humano para procesar y registrar información resulta ser el principal limitante del crecimiento de Internet.

Un grupo de físicos de la Universidad de Frankfurt, Alemania publicó un estudio en el que encontró que la cantidad de información archivada no puede crecer más allá de la capacidad que tienen las personas de asimilarla, procesarla y manejarla. Esto contradice la creencia de que la cantidad de información producida y almacenada por el hombre, en especial en Internet, no se ve limitada por factores económicos o de infraestructura.

Aunque se haya dicho que todavía no existe un computador, por más grande y poderoso que sea, que iguale la capacidad de procesamiento cerebral de un ratón, la misma capacidad de este órgano vital resulta ser un impedimento para el crecimiento exponencial de los datos en línea.

A través de la investigación, los científicos pudieron establecer que los procesos del sistema nervioso que afectan a las personas a la hora de gestionar la información son los que determinan el límite de crecimiento de los datos que podrían ser almacenados en Internet a nivel mundial.

Así mismo, luego de hacer este descubrimiento, los autores del estudio pudieron determinar que los costos económicos no son los factores limitantes para la producción masiva de datos en la Red. Con este estudio, los científicos han podido resolver lo que ha sido cuestionado durante varios años entre los usuarios de la Red: el crecimiento de la información en Internet sí tiene límites.

Éricka Duarte Roa

Éricka Duarte Roa

Antes que nada, debo confesar que la tecnología me era indiferente, pero desde que me topé con ella me enamoré y ha llegado a ser parte de mí. ENTER.CO ha sido mi trabajo y mi casa desde hace un año y gracias a este medio he podido desempeñar el oficio y la profesión que amo: el periodismo.
Me apasiona el tema del funcionamiento y la influencia que tienen las redes sociales en el ser humano, me encanta el todo lo relacionado a la ciberseguridad y considero que los ataques informáticos pueden llegar a tener casi el mismo poder de una bomba atómica. Soy fan de Apple, compradora compulsiva de tecnología y adicta a Twitter.

View all posts

8 comments

  • Considero importante citar al usuario «antialias_physorg» con su comentario:

    «If economics were the driving factor in file generation (i.e. if cost per byte were the limiting factor) then we’d see a different distribution of filesizes (i.e. we’d see files growing larger in step with Moore’s law- whichis in a LINEAR fashion). Such a growth would be due to the users’ desire to have the maximal resolution affordable.
    But this is not observed. 
    Instead there is a non-linear relationship between resolution (size) and usefulness. Going from 640×40 to 800×600 confers a larger gain (in terms of information gained by the user’s brain) than going from 1280×1024 to 1600×1200.
    People will create files that are useful – and if usefulness tops out (or goes asymptotic) towards higher resolution then it’s not Moore’s law that determines how much information is generated by people.»

    Y también al usuario «axemaster»:

    «Yeah, there’s a really good reason for that. Increasing the resolution of an image is only useful up to a certain point because any information gained beyond that point is USELESS and just increases the file size. You see, there’s this thing called «statistics» and «error», and «optimization of error»… For example, in particle physics, you only need a certain number of detections to get good data – going any further is typically counterproductive because the file size goes up exponentially.»

  • Considero importante citar al usuario «antialias_physorg» con su comentario:

    «If economics were the driving factor in file generation (i.e. if cost per byte were the limiting factor) then we’d see a different distribution of filesizes (i.e. we’d see files growing larger in step with Moore’s law- whichis in a LINEAR fashion). Such a growth would be due to the users’ desire to have the maximal resolution affordable.
    But this is not observed. 
    Instead there is a non-linear relationship between resolution (size) and usefulness. Going from 640×40 to 800×600 confers a larger gain (in terms of information gained by the user’s brain) than going from 1280×1024 to 1600×1200.
    People will create files that are useful – and if usefulness tops out (or goes asymptotic) towards higher resolution then it’s not Moore’s law that determines how much information is generated by people.»

    Y también al usuario «axemaster»:

    «Yeah, there’s a really good reason for that. Increasing the resolution of an image is only useful up to a certain point because any information gained beyond that point is USELESS and just increases the file size. You see, there’s this thing called «statistics» and «error», and «optimization of error»… For example, in particle physics, you only need a certain number of detections to get good data – going any further is typically counterproductive because the file size goes up exponentially.»

  • Recomiendo tener cuidado con la redacción.

    La explicación es sencilla. La creencia actual es que el costo económico es un factor fundamental que limita el crecimiento de la información.

    El estudio contradice esa creencia y señala que las limitaciones económicas y de hardware son insignificantes si se las compara con el verdadero factor que limita la generación de la información: la capacidad neuro-psicológica de procesamiento de la información del cerebro.

    En el segundo párrafo, la periodista manifiesta que la conclusión «contradice la creencia de que la cantidad de información producida y almacenada por el hombre, en especial en Internet, NO se ve limitada por factores económicos o de infraestructura».

    Un saludo.

  • Recomiendo tener cuidado con la redacción.

    La explicación es sencilla. La creencia actual es que el costo económico es un factor fundamental que limita el crecimiento de la información.

    El estudio contradice esa creencia y señala que las limitaciones económicas y de hardware son insignificantes si se las compara con el verdadero factor que limita la generación de la información: la capacidad neuro-psicológica de procesamiento de la información del cerebro.

    En el segundo párrafo, la periodista manifiesta que la conclusión «contradice la creencia de que la cantidad de información producida y almacenada por el hombre, en especial en Internet, NO se ve limitada por factores económicos o de infraestructura».

    Un saludo.

  • Yo veo relación de esta noticia con los problemas de la multitarea, que se notan particularmente cuando una persona navega en Internet y termina encontrando mucha más información de la que puede asimilar, lo que que lo hace ineficiente a la hora de intentarlo. Enter ya se ha referido a este tema:

    http://www.enter.co/secretosdetecnologia/multitarea-%C2%BFincrementa-la-productividad-o-acaba-con-ella/

    Por culpa de navegar en Internet por tantos años, he terminado por aceptar que le tengo envidia a los procesadores de múltiples núcleos. En fin.

  • Yo veo relación de esta noticia con los problemas de la multitarea, que se notan particularmente cuando una persona navega en Internet y termina encontrando mucha más información de la que puede asimilar, lo que que lo hace ineficiente a la hora de intentarlo. Enter ya se ha referido a este tema:

    http://www.enter.co/secretosdetecnologia/multitarea-%C2%BFincrementa-la-productividad-o-acaba-con-ella/

    Por culpa de navegar en Internet por tantos años, he terminado por aceptar que le tengo envidia a los procesadores de múltiples núcleos. En fin.

  • Si el argumento central de este artículo tuviera validez (
    la cantidad de información archivada no puede crecer más allá de la capacidad que tienen las personas de asimilarla, procesarla y manejarla. ), querría decir que la capacidad de asimilación, procesamiento y manejo de información por parte del cerebro humano está creciendo a tazas exponenciales (aquí la métrica de ello: http://www.emc.com/collateral/about/news/idc-emc-digital-universe-2011-infographic.pdf , si hay una relación directa entre la capacidad cerebral y los datos que se producen en internet).  Sinceramente no creo que sea el caso, ya que el ser humano también está avanzando decididamente hacia tecnologías que permiten manejar y comprender grandes volúmenes de información. Un banco de enlaces al respecto se puede encontrar en: 
    https://delicious.com/knowledgefactory/big_data

  • Si el argumento central de este artículo tuviera validez (
    la cantidad de información archivada no puede crecer más allá de la capacidad que tienen las personas de asimilarla, procesarla y manejarla. ), querría decir que la capacidad de asimilación, procesamiento y manejo de información por parte del cerebro humano está creciendo a tazas exponenciales (aquí la métrica de ello: http://www.emc.com/collateral/about/news/idc-emc-digital-universe-2011-infographic.pdf , si hay una relación directa entre la capacidad cerebral y los datos que se producen en internet).  Sinceramente no creo que sea el caso, ya que el ser humano también está avanzando decididamente hacia tecnologías que permiten manejar y comprender grandes volúmenes de información. Un banco de enlaces al respecto se puede encontrar en: 
    https://delicious.com/knowledgefactory/big_data

Archivos