El fin de Internet [tal como lo conocemos]
Suelen ser divertidos los anuncios apocalípticos digitales. El otro día recordaba ese mito de los noventa que nos amenazaba con acabar con Hotmail si no reenviábamos un correo a una cadena de personas (aunque nunca los reenvié ya sabemos el desafortunado desenlace, aún existe y cada vez con más basura).
Un reciente estudio realizado por Nemertes Research, llamado “The Internet Singularity, Delayed: Why Limits in Internet Capacity Will Stifle Innovation on the Web”, advierte que tomando en cuenta el creciente tráfico registrado en Internet durante los últimos años, ésta colapsaría para el 2010.
Más allá de lo divertido de estas profecías, que en este caso parece ser bastante seria y con fundamento científico, se observan varios datos interesantes que se trazan a raíz de esta investigación.
Resulta evidente que la Red está sometida a tráficos que hasta hace poco no requerían de tanto ancho de banda. Sin embargo, las crecientes cargas y descargas de videos en plataformas como YouTube, la transferencia de archivos grandes vía P2P, el incremento de audios [podcast como los de iTunes] y la masificación de los recursos en flash y ajax que demandan mucho más ancho de banda [tipo google.earth] hacen que esta predicción no sea tan disparatada.
Tras tanto promover la Web 2.0 ahora nos damos cuenta que la demanda superó la capacidad de infraestructura. A esto se suma la creciente cantidad de dispositivos tipo Blackberrys que también hacen lo suyo. En síntesis, más datos, más servicios, recursos cada vez más grandes y más dispositivos móviles y todo con la misma Red… Las conclusiones son obvias.
Si bien tiene un enorme valor el que los usuarios generen contenidos para Internet ahora habrá que seguir de cerca cuáles serán los efectos.
El estudio plantea que si surge otro tipo de “killer aplication” tipo Google o YouTube (como una Web 3D como por ejemplo un mashup Google Earth+Second Life) es probable que la sobresaturación repercuta directamente en nuestra calidad de conexión.
Es un tema que me preocupa porque puede ser la mano invisible (de Smith) la que resuelva este problema. Y como todo asunto que resuelve la mano invisible, los usuarios terminamos pagando la ampliación de Red, que en este caso podría costar 140 billones de dólares. O peor aún, puede que esto reconfigure el negocio de las compañías de telecomunicación y tengamos que pagar por cada servicio. Es decir: ver un correo U$1; escribir un post U$ 1,5 y ver un video en la web U$ 2, etc. (tal como se planteó en su momento, ver Save the Internet)
De ser así, las cosas cambiarían bastante la supercarretera de la información pasaría a ser una plataforma lenta, cara y aburrida (ver The End of the [free] Internet?). Como siempre, habrá que estar bien despierto al respecto. [vía Nemertes].
Recurso recomendado:
Censo sobre la capacidad de Internet [vía EdwardBermúdez]
Un reciente estudio realizado por Nemertes Research, llamado “The Internet Singularity, Delayed: Why Limits in Internet Capacity Will Stifle Innovation on the Web”, advierte que tomando en cuenta el creciente tráfico registrado en Internet durante los últimos años, ésta colapsaría para el 2010.
Más allá de lo divertido de estas profecías, que en este caso parece ser bastante seria y con fundamento científico, se observan varios datos interesantes que se trazan a raíz de esta investigación.
Resulta evidente que la Red está sometida a tráficos que hasta hace poco no requerían de tanto ancho de banda. Sin embargo, las crecientes cargas y descargas de videos en plataformas como YouTube, la transferencia de archivos grandes vía P2P, el incremento de audios [podcast como los de iTunes] y la masificación de los recursos en flash y ajax que demandan mucho más ancho de banda [tipo google.earth] hacen que esta predicción no sea tan disparatada.
Tras tanto promover la Web 2.0 ahora nos damos cuenta que la demanda superó la capacidad de infraestructura. A esto se suma la creciente cantidad de dispositivos tipo Blackberrys que también hacen lo suyo. En síntesis, más datos, más servicios, recursos cada vez más grandes y más dispositivos móviles y todo con la misma Red… Las conclusiones son obvias.
Si bien tiene un enorme valor el que los usuarios generen contenidos para Internet ahora habrá que seguir de cerca cuáles serán los efectos.
El estudio plantea que si surge otro tipo de “killer aplication” tipo Google o YouTube (como una Web 3D como por ejemplo un mashup Google Earth+Second Life) es probable que la sobresaturación repercuta directamente en nuestra calidad de conexión.
Es un tema que me preocupa porque puede ser la mano invisible (de Smith) la que resuelva este problema. Y como todo asunto que resuelve la mano invisible, los usuarios terminamos pagando la ampliación de Red, que en este caso podría costar 140 billones de dólares. O peor aún, puede que esto reconfigure el negocio de las compañías de telecomunicación y tengamos que pagar por cada servicio. Es decir: ver un correo U$1; escribir un post U$ 1,5 y ver un video en la web U$ 2, etc. (tal como se planteó en su momento, ver Save the Internet)
De ser así, las cosas cambiarían bastante la supercarretera de la información pasaría a ser una plataforma lenta, cara y aburrida (ver The End of the [free] Internet?). Como siempre, habrá que estar bien despierto al respecto. [vía Nemertes].
Recurso recomendado:
Censo sobre la capacidad de Internet [vía EdwardBermúdez]
Etiquetas: futuro, Internet, tecnologìa
<< Home