¿Qué es WEB1.0;2.0;3.0?
La era web1.0 es una era en la que todos los héroes compiten por Internet. Aunque los medios y métodos utilizados por cada sitio web son diferentes, la primera generación de Internet tiene muchas características únicas, que son. reflejado en:
1. Web1.0 básicamente adopta el modelo impulsado por la innovación tecnológica. La transformación y el uso de la tecnología de la información juegan un papel clave en el renacimiento y desarrollo de los sitios web. Sina comenzó inicialmente como una plataforma tecnológica, Sohu comenzó con tecnología de búsqueda, Tencent comenzó con tecnología de mensajería instantánea y Shanda comenzó con juegos en línea. En las etapas de fundación de estos sitios web, los rastros de tecnología eran bastante pesados.
2. El beneficio de web1.0 se basa en un punto común: un enorme tráfico de clics. Ya sea que se trate de financiación anticipada o de ganancias posteriores, depende de una gran cantidad de usuarios y tasas de clics. Listar o desarrollar servicios de valor agregado en función de las tasas de clics determina el nivel y la velocidad de la rentabilidad. que encarna plenamente el color de la economía del globo ocular de Internet.
3. En el desarrollo de la web 1.0, ha habido una convergencia hacia los portales integrales. En los primeros días, Sina, Sohu, NetEase, etc. continuaron adhiriéndose al camino de los portales, mientras que Internet. Empresas emergentes como Tencent, MSN y GOOGLE están recurriendo una tras otra a las redes de portales, especialmente para obtener información sobre noticias, con gran interés común. El surgimiento de esta situación radica en el hecho de que el espacio de ganancias del sitio web del portal en sí es más amplio, los métodos de ganancias están más diversificados y ocupar la plataforma del sitio web puede realizar de manera más efectiva la intención de valor agregado y extender diversos servicios más allá del negocio principal. .
4. Al mismo tiempo que la convergencia de web1.0, se ha formado una estructura industrial clara que combina negocios principales y negocios concurrentes. Sina se centra principalmente en noticias y publicidad, NetEase amplía los juegos y Sohu amplía su matriz de portales. Cada empresa utiliza su negocio principal como punto de avance y las operaciones secundarias como punto complementario, formando un modelo de desarrollo de puños y palmas carnosas.
5. Web1.0 no utiliza HTML como lenguaje. En la era 1.0, los sitios web dinámicos, como foros, etc., se han utilizado ampliamente.
web2.0 p>
2001 El estallido de la burbuja de las puntocom en otoño marcó un punto de inflexión para Internet. Mucha gente llegó a la conclusión de que Internet estaba sobrevalorada y, de hecho, la burbuja de las puntocom y la posterior recesión del mercado de valores parecían características comunes de todas las revoluciones tecnológicas. Las grandes caídas del mercado de valores a menudo marcan el comienzo de una tecnología en auge que ocupa un lugar central. Los falsificadores fueron desterrados, las auténticas historias de éxito demostraron su poder y la gente empezó a comprender lo que distinguía una historia de otra.
El concepto de “Web 2.0” comenzó en un encuentro durante una sesión de lluvia de ideas entre O'Reilly y MediaLive International. El llamado pionero de Internet y vicepresidente de O'Reilly, Dale Dougherty, señala que, lejos del llamado "crash", Internet es más relevante que nunca, con nuevas aplicaciones y sitios interesantes que aparecen con sorprendente regularidad. Es más, las empresas que sobrevivieron a la burbuja de las puntocom parecían tener algunas similitudes. Entonces, ¿podría ser que el estallido de la burbuja de las puntocom marcó un punto de inflexión en Internet que hizo que los llamamientos a favor de la "Web 2.0" tuvieran sentido? Todos estuvimos de acuerdo y nació la Conferencia Web 2.0.
En el año y medio posterior a aquella reunión, el término "Web 2.0" se ha arraigado profundamente en los corazones de las personas y se pueden buscar más de 9,5 millones de enlaces en Google. Sin embargo, todavía existe un gran desacuerdo sobre el significado de la Web 2.0, ya que algunas personas la menosprecian como nada más que un eslogan de marketing exagerado, mientras que otros la entienden como una nueva idea tradicional.
Este artículo pretende aclarar el significado original de Web 2.0.
En nuestra lluvia de ideas original, hemos utilizado algunos ejemplos para expresar formalmente nuestra comprensión de la Web 2.0:
Web 1.0 Web 2.0
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3.com Napster
Britannica Online Wikipedia (Wikipedia)
Blog de sitio web personal ( blogs)
evitar next.org y EVDB
Especulación de nombres de dominio SEO
Visitas a la página Contar el costo por clic
Servicios web de raspado de pantalla
Participación en publicaciones
Sistema de gestión de contenido wiki
Etiqueta de directorio (categoría) ("folksonomía")
Agregación adhesiva
La lista sigue y sigue. Pero, ¿qué tiene una aplicación o enfoque que nos lleva a llamarla "Web 1.0" y otra "Web 2.0"? (Esta pregunta es particularmente apremiante porque la idea de la Web 2.0 se ha extendido tanto que muchas empresas están agregando el término a su publicidad de marketing sin comprender realmente lo que significa. También es particularmente difícil porque muchas nuevas empresas amantes de los eslóganes claramente no son La Web 2.0 y algunas de las aplicaciones que consideramos Web 2.0, como Napster y BitTorrent, ¡ni siquiera son programas web adecuados!) Comencemos explorando también algunos de los principios que conforman las historias de éxito de la Web 1.0. como algunas de las nuevas aplicaciones más interesantes.
1. Internet como plataforma
Como muchos conceptos importantes, la Web 2.0 no tiene un límite claro, sino un núcleo gravitacional. También podríamos pensar en la Web 2.0 como un conjunto de principios y prácticas, mediante los cuales los sitios web cercanos o lejanos al núcleo se organizan en un sistema de red similar al sistema solar. Estos sitios web encarnan más o menos los principios de la Web 2.0.
La Figura 1 es un "diagrama de simulación" de la Web 2.0, que se produjo en un taller en una conferencia llamada "Amigos de O'Reilly, FOO". Este diagrama todavía se encuentra en gran medida en la etapa de evolución, pero ya representa muchos conceptos derivados de las ideas centrales de la Web 2.0.
Por ejemplo, en la primera conferencia Web 2.0 en octubre de 2004, John Battelle y yo esbozamos un conjunto preliminar de principios en nuestros respectivos comentarios de apertura.
El primero de estos principios es "Internet como plataforma". Este fue también el grito de batalla de Netscape, el favorito de la Web 1.0, pero Netscape cayó en la guerra con Microsoft. Además, dos de nuestros primeros modelos a seguir de la Web 1.0, DoubleClick y Akamai, fueron pioneros en el uso de la Web como plataforma. La gente a menudo no piensa en esto como un servicio de red, pero de hecho, el servicio de publicidad fue el primer servicio de red ampliamente utilizado y también fue el primer mashup ampliamente utilizado si usa otras palabras recientemente populares. Cada anuncio publicitario está diseñado para funcionar sin problemas entre los dos sitios, entregando una página integrada a los lectores en otra computadora.
Akamai también considera la red como una plataforma y, en un nivel más profundo, construye una red transparente de distribución de contenido y almacenamiento en caché para reducir la congestión de la banda ancha.
No obstante, estos pioneros proporcionan comparaciones útiles, porque cuando los recién llegados encuentran los mismos problemas, pueden ampliar aún más las soluciones de los pioneros, obteniendo así una comprensión más profunda de la naturaleza de la nueva plataforma. DoubleClick y Akamai son pioneros de la Web 2.0. Al mismo tiempo, también podemos ver que se pueden realizar más aplicaciones introduciendo más patrones de diseño Web 2.0.
Echemos un vistazo más de cerca a cada uno de estos tres casos para explorar algunas de las diferencias esenciales.
Netscape vs. Google
Si se puede llamar a Netscape el abanderado de la Web 1.0, entonces es casi seguro que Google es el abanderado de la Web 2.0, basta con mirar su oferta pública inicial. está claro cómo revelan sus respectivas épocas. Empezamos entonces por las diferencias entre estas dos empresas y su posicionamiento.
Netscape perfila lo que llama "Internet como plataforma" en imitaciones de software tradicionales: su producto estrella es el navegador de Internet, una aplicación de escritorio. Al mismo tiempo, su estrategia es utilizar su dominio del mercado de navegadores para construir un mercado para sus costosos productos de servidores. En teoría, los estándares para controlar el contenido y los programas mostrados en los navegadores dieron a Netscape el mismo tipo de poder de mercado que Microsoft disfrutaba en el mercado de las computadoras personales. Al igual que el "carro sin caballos" original que representaba el automóvil como una extensión de lo familiar, Netscape promovió un webtop como una alternativa al escritorio tradicional, con planes de depender de las actualizaciones de información y los proveedores de información que compraron servidores Netscape impulsaron varios programas pequeños para Desarrollar y promover este tipo de escritorio en red.
Con el tiempo, los navegadores y los servidores web se convirtieron en "mercancías" y la cadena de valor ascendió en la prestación de servicios en la plataforma de Internet.
Por el contrario, Google nació como una aplicación web. Nunca vendió ni empaquetó sus programas, sino que los entregó como servicios. Los clientes pagan a Google directa o indirectamente por los servicios que utilizan. Los defectos originales de la industria del software han desaparecido. No más lanzamientos regulares de software, solo mejoras continuas. No más licencias ni ventas, solo úselo. En lugar de tener que migrar plataformas para que los usuarios puedan ejecutar software en sus dispositivos, simplemente cree una red masiva y escalable de PC que ejecuten sistemas operativos de código abierto y aplicaciones y herramientas locales a las que nunca podrá acceder nadie fuera de la empresa.
En el fondo, Google necesitaba una capacidad que Netscape nunca necesitó: la gestión de bases de datos. Google es mucho más que una simple colección de herramientas de software: es una base de datos especializada. Sin los datos, las herramientas son inútiles; sin el software, los datos son incontrolables. Las licencias de software y el control de las interfaces de programación de aplicaciones (API), el arma mágica de una era anterior, ya no son relevantes porque el software de Google sólo necesita ser ejecutado y nunca distribuido, y porque sin las capacidades de recopilación y gestión, el poder de los datos y el software en sí son de poca utilidad. De hecho, el valor del software es directamente proporcional al tamaño y la actividad de los datos que ayuda a gestionar.
El servicio de Google no es un simple servidor, aunque se entrega a través de una colección a gran escala de servidores de Internet; su servicio no es un navegador, aunque este servicio es utilizado por los usuarios en el navegador experimentado. El producto estrella de Google, su servicio de búsqueda, ni siquiera aloja el contenido que permite a los usuarios buscar. Al igual que una llamada telefónica, ocurre no sólo en ambos extremos de la llamada, sino también en la red intermedia. Como intermediario entre los usuarios y sus experiencias en línea, Google actúa en el espacio entre los navegadores, los motores de búsqueda y, en última instancia, los servidores de contenidos.
Aunque tanto Netscape como Google pueden describirse como empresas de software, está claro que Netscape puede atribuirse a Lotus, Microsoft, Oracle, SAP y otras empresas que surgieron de la revolución del software de la década de 1980. mundo. Los socios de Google son empresas de Internet como eBay, Amazon, Napster, DoubleClick y Akamai.
DoubleClick frente a Overture y AdSense
Al igual que Google, DoubleClick es un verdadero hijo de la era de Internet. Ofrece software como servicio, tiene competencias básicas en gestión de datos y, como se mencionó anteriormente, fue pionero en ofrecer servicios mucho antes de que los servicios web tuvieran siquiera un nombre. Sin embargo, DoubleClick se vio finalmente limitado por su modelo de negocio. Lo que implementa es el concepto de Internet de los años 90. Esta idea gira en torno a la publicación, no a la participación; en torno a la manipulación por parte de los anunciantes, no de los consumidores; y en torno a la escala, la idea de que Internet estará dominada por los llamados sitios principales en la escala de empresas de medición de publicidad en línea como MediaMetrix.
El resultado es, como DoubleClick cita con orgullo en su sitio web: "más de 2.000 solicitudes exitosas". En cambio, el mercado de búsquedas de Yahoo! (anteriormente Overture) y el producto AdSense de Google ya prestan servicios a cientos de miles de anunciantes.
El éxito de Overture y Google se debe a la comprensión de la llamada "cola larga" mencionada por Chris Anderson, es decir, el poder colectivo de muchos sitios web pequeños proporciona la mayor parte del contenido de Internet. El producto de DoubleClick requiere un contrato de venta formal y limita su mercado a unos pocos miles de sitios web grandes. Overture y Google descubrieron cómo colocar anuncios en casi cualquier página web. Además, evitan los formatos de anuncios preferidos por los editores y las agencias de publicidad, como los anuncios publicitarios y las ventanas emergentes, en favor de formatos de anuncios de texto mínimamente intrusivos, sensibles al contexto y fáciles de usar.
La experiencia de la Web 2.0 consiste en utilizar eficazmente el autoservicio del consumidor y la gestión algorítmica de datos para extender el alcance a todo Internet, a todos los bordes en lugar de solo al centro, y no a la cola larga. solo la cabeza.
No sorprende que otras historias de éxito de la Web 2.0 sigan la misma trayectoria. eBay actúa como un intermediario automatizado, haciendo posibles transacciones casuales de unos pocos dólares entre individuos. Napster (aunque desde entonces fue cerrado por razones legales) construyó su red sobre una base de datos centralizada de canciones, pero gradualmente amplió su red al convertir a cada descargador en un servidor.
Akamai frente a BitTorrent
Al igual que DoubleClick, el enfoque empresarial de Akamai está en la cabeza de la red, no en la cola; está orientado hacia el centro, no hacia el borde; Si bien sirve a los intereses de los individuos en los márgenes de la red, allanando el camino para que accedan a sitios de alta demanda en el centro de Internet, sus ingresos aún provienen de sitios en el centro.
BitTorrent, al igual que otros defensores del movimiento P2P, ha adoptado un enfoque radical para lograr el objetivo de la descentralización de Internet. Cada cliente es también un servidor; el archivo se divide en muchas partes para que pueda servirse desde múltiples lugares de la red, aprovechando de forma transparente los descargadores de la red para proporcionar ancho de banda y datos a otros descargadores. De hecho, cuanto más popular es un archivo, más rápido se descarga porque más usuarios proporcionan ancho de banda y segmentos individuales para el archivo.
BitTorrent demuestra así un principio clave de la Web 2.0: cuantos más usuarios, mejor será el servicio.
Por un lado, Akamai debe añadir servidores para mejorar los servicios, y por otro, los usuarios de BitTorrent aportan sus propios recursos a todos. Se puede decir que existe un "sistema de participación" implícito incorporado en las normas de cooperación. En este sistema de participación, el servicio desempeña principalmente el papel de un agente inteligente, que conecta varios bordes de la red, mientras aprovecha al máximo el propio poder del usuario.
2. Aprovechar la inteligencia colectiva
Detrás de las historias de éxito de aquellos gigantes que nacieron en la era de la Web 1.0, sobrevivieron y continúan liderando la era de la Web 2.0, hay un núcleo principio, es decir, utilizan el poder de Internet para utilizar la sabiduría colectiva:
--Los hipervínculos son la base de Internet. Cuando los usuarios agregan contenido nuevo y sitios web nuevos, estarán limitados a una estructura de red específica donde otros usuarios descubren el contenido y establecen enlaces. Al igual que las sinapsis en el cerebro, las redes interconectadas crecerán orgánicamente a medida que las conexiones entre sí se fortalezcan mediante la replicación y el refuerzo, como resultado directo de todas las actividades de todos los usuarios de la red.
--Yahoo! fue la primera gran historia de éxito, nacida de un catálogo, o catálogo de enlaces, una recopilación de los mejores trabajos de decenas de miles o incluso millones de usuarios de Internet. Aunque Yahoo! entró más tarde en el negocio de crear una variedad de contenidos, su papel como portal para recopilar las obras colectivas de los usuarios de Internet sigue siendo el núcleo de su valor.
--El gran avance de Google en las búsquedas reside en la tecnología PageRank, que rápidamente lo convirtió en el líder indiscutible en el mercado de las búsquedas. PageRank es un método que utiliza la estructura de enlaces de la red, en lugar de simplemente utilizar los atributos del documento, para lograr mejores resultados de búsqueda.
--El producto de eBay es la actividad colectiva de todos sus usuarios. Al igual que la red misma, eBay crece orgánicamente con las actividades de sus usuarios, y el papel de la empresa es el de habilitar un entorno y un usuario específicos. Las acciones ocurren en este entorno. Es más, la ventaja competitiva de eBay proviene casi en su totalidad de su masa crítica de compradores y vendedores, lo que hace que los productos de muchos de sus competidores sean significativamente menos atractivos.
--Amazon vende los mismos productos que competidores como Barnesandnoble.com, y estas empresas reciben las mismas descripciones de productos, imágenes de portada y catálogos de los vendedores. La diferencia es que Amazon ha creado una ciencia para estimular la participación de los usuarios. Amazon tiene calificaciones de usuarios más de un orden de magnitud más altas que sus competidores, más invitaciones para involucrar a los usuarios de diversas maneras en casi todas las páginas y, lo que es más importante, utilizan la actividad de los usuarios para producir mejores resultados de búsqueda. Es probable que los resultados de búsqueda de Barnesandnoble.com apunten a los propios productos de la empresa o a resultados patrocinados, mientras que Amazon siempre lidera con lo que se llama "más popular", un cálculo en tiempo real basado no sólo en las ventas sino también en una serie de otros datos de Amazon. Los expertos llaman "flujo" a un factor que rodea al producto. Dado que la participación de los usuarios es un orden de magnitud mayor que la de sus rivales, no sorprende que Amazon venda más que sus competidores.
Ahora, las empresas innovadoras que poseen esta información y potencialmente la amplían están dejando su huella en Internet.
Wikipedia es una enciclopedia online basada en un concepto aparentemente imposible. La idea es que cualquier usuario de Internet pueda agregar una entrada y cualquier otra persona pueda editarla. Sin duda, este es un experimento extremo de confianza, que aplica la máxima de Eric Raymond (derivada del contexto del software de código abierto): "Con suficientes ojos, todos los defectos del programa serán eliminados". "Con suficientes ojos, todos los errores son superficiales". a la creación de contenidos. Wikipedia ya se encuentra entre los 100 sitios web más importantes del mundo y muchos creen que pronto estará entre los 10 primeros. Este es un cambio profundo en la creación de contenido.
Sitios como del.icio.us y Flickr han ganado mucha atención en los últimos tiempos y se han involucrado en lo que se ha llamado "folksonomía". pionero. La "clasificación de enfoque" es una forma de clasificar sitios web de forma colaborativa utilizando palabras clave seleccionadas libremente por los usuarios, y estas palabras clave generalmente se denominan etiquetas. El etiquetado utiliza asociaciones múltiples y superpuestas, como las que utiliza el propio cerebro, en lugar de categorías rígidas. Para dar un ejemplo clásico, en el sitio web de Flickr, una foto de un cachorro puede etiquetarse con "cachorro" y "lindo", lo que permite al sistema buscar de una manera natural que resulta del comportamiento del usuario.
Los productos colaborativos de filtrado de spam, como Cloudmark, agregan las muchas decisiones independientes que toman los usuarios de correo electrónico sobre si un correo electrónico es o no spam, en lugar de depender del análisis de los propios sistemas.
Es casi axiomático que los grandes triunfadores de Internet no promocionan activamente sus productos en todas partes. Utilizan "marketing viral", lo que significa que algunas referencias se transmiten directamente de un usuario a otro. Si un sitio web o un producto se basa en publicidad para su promoción, es casi seguro que se puede concluir que no es Web 2.0.
Incluso gran parte de la propia infraestructura de Internet, incluido el código Linux, Apache, MySQL y Perl, PHP o Python utilizado en la mayoría de los servidores web, se basa en la producción entre pares de código abierto. . Contiene una sabiduría colectiva, dada en red. Hay al menos 100.000 proyectos de software de código abierto enumerados en el sitio web SourceForge.net. Cualquiera puede agregar un proyecto y cualquiera puede descargar y usar el código del proyecto.
Al mismo tiempo, los nuevos proyectos migran del borde al centro como resultado del uso de los usuarios. Un proceso de aceptación orgánica de software se basa casi por completo en el marketing viral. Al mismo tiempo, los nuevos proyectos migran del borde al centro como resultado de la adopción por parte de los usuarios, un proceso orgánico de adopción de software que depende casi por completo del marketing viral.
La experiencia es la siguiente: el efecto de red derivado de las aportaciones de los usuarios es la clave para dominar el mercado en la era Web 2.0.
Las plataformas siempre vencen a las aplicaciones
En todas las competiciones del pasado, Microsoft ha utilizado con éxito la carta de la plataforma para derrotar incluso a las aplicaciones más dominantes. La plataforma Windows permitió a Microsoft reemplazar Lotus 1-2-3 por Excel, WordPerfect por Word y Netscape por Internet Explorer.
Pero esta vez, el conflicto no es entre plataforma y aplicación, sino entre dos plataformas. Cada plataforma tiene un modelo de negocio distinto: por un lado, un ISV tiene una amplia base de usuarios e integra estrechamente las API con el sistema operativo para controlar los patrones de programación. Los sistemas del propietario están vinculados entre sí mediante un conjunto de protocolos, estándares abiertos y una clara; comprensión de la colaboración.
Los sistemas Windows representan la cima del control propietario mediante interfaces de programas de software. Netscape intentó competir con Microsoft utilizando las mismas tácticas que Microsoft utilizó contra sus rivales, pero fracasó. Sin embargo, Apache, que tiene estándares abiertos para Internet, ha prosperado. La batalla librada esta vez ya no es una plataforma con disparidad de fuerza versus un software aislado, sino una plataforma versus una plataforma. La cuestión es qué plataforma, o más concretamente, qué sistema y qué modelo de negocio se adapta mejor a las oportunidades futuras.
Windows fue una excelente solución a los problemas de la era temprana de la PC. Unifica el campo de juego para los desarrolladores de programas y resuelve muchos de los problemas que afectan al campo. Pero este enfoque único, controlado por un único proveedor, ya no es una solución adecuada sino un problema. Los sistemas orientados a la comunicación requieren interoperabilidad, e Internet como plataforma ciertamente la requiere.
A menos que el proveedor pueda controlar ambos terminales para cada interacción, la posibilidad de bloquear usuarios a través de la interfaz de programación del software es mínima.
Cualquier proveedor Web 2.0 que intente controlar la plataforma para comercializar aplicaciones ha, por definición, perdido los beneficios de la plataforma.
Esto no quiere decir que la oportunidad de bloqueo y ventaja competitiva ya no exista, pero creemos que esta oportunidad no se logra controlando las interfaces y protocolos de los programas de software. Están surgiendo nuevas reglas del juego. Aquellas empresas que puedan comprender estas nuevas reglas del juego, en lugar de intentar volver a las viejas reglas de la era del software para PC, probablemente tendrán éxito en la era de la Web 2.0.
Blogs y sabiduría colectiva
Una de las características más buscadas de la era Web 2.0 es el auge de los blogs. Las páginas de inicio personales han existido desde los primeros días de Internet, y los diarios personales y las columnas de opinión diarias se remontan aún más atrás, entonces, ¿a qué se debe tanto alboroto?
En definitiva, un blog es sólo una página web personal en forma de diario. Pero, como señala Rich Skrenta, la estructura cronológica del blog “parece un cambio trivial, pero impulsa una distribución, publicidad y cadena de valor muy diferentes”
Uno de los grandes cambios es una tecnología llamada RSS. . RSS es el avance más importante en la estructura fundamental de Internet desde que los primeros gurús de la informática se dieron cuenta de que CGI (Common Gateway Interface) podía usarse para crear sitios web basados en bases de datos. RSS permite a las personas no sólo vincularse a una página web, sino también suscribirse a la página web y recibir notificaciones cada vez que la página cambia. Sgrenta llama a esto la "red incremental". Otros lo llaman la "web en vivo".
Por supuesto, los llamados "sitios web dinámicos" actuales (es decir, sitios web basados en bases de datos con contenido generado dinámicamente) han reemplazado a los sitios web estáticos de hace una década. La vitalidad de un sitio web dinámico no reside sólo en las páginas web, sino también en los enlaces. Un enlace a un blog en línea en realidad apunta a una página web que se actualiza constantemente, incluidos "enlaces permanentes" a cualquiera de sus artículos, así como notificaciones para cada actualización. Por tanto, un RSS es mucho más potente que un marcador o un enlace a una única página web.
RSS también significa que los navegadores web ya no son sólo una herramienta para navegar por la web. Aunque los agregadores de RSS como Bloglines están basados en la web, otros son programas de escritorio y otros pueden usarse en dispositivos portátiles para recibir contenido actualizado periódicamente.
RSS ahora se utiliza no sólo para enviar notificaciones de nuevas publicaciones de blog, sino también para una variedad de otras actualizaciones de datos, incluidas cotizaciones de bolsa, condiciones climáticas e imágenes. Este tipo de aplicaciones es en realidad un regreso a los orígenes de RSS: RSS nació en 1997 y es la convergencia de las dos tecnologías siguientes: una es la tecnología “Really Simple Syndication” de Dave Winer, utilizada para notificar actualizaciones de blogs; es la tecnología "Rich Site Summary" proporcionada por Netscape, que permite a los usuarios personalizar la página de inicio de Netscape con flujos de datos actualizados periódicamente. Más tarde, Netscape perdió interés y la tecnología fue heredada por uno de los pioneros de los blogs de Wenner, Userland. Sin embargo, en la implementación actual de la aplicación, puedo ver el mismo efecto de ambos.
Sin embargo, RSS es sólo una parte de lo que diferencia a los blogs de las páginas web normales. Tom Coates comentó sobre la importancia de los enlaces permanentes:
“Puede parecer una característica mundana ahora, pero efectivamente transforma los blogs de una forma fácil de usar. El fenómeno de la facilidad de publicación se transformó aún más en una participación conversacional en comunidades que se cruzan. Por primera vez, se volvió tan fácil tomar una posición y hablar sobre publicaciones muy específicas en los sitios web de otras personas. Las discusiones ocurren, los chats suceden.
Al mismo tiempo, el resultado es que surge o se fortalece una amistad. Los enlaces permanentes fueron el primer y más exitoso intento de construir puentes entre blogs. "
En muchos sentidos, la combinación de RSS y enlaces fijos añade muchas características de NNTP (Protocolo de noticias en red para grupos de noticias) a HTPP (Protocolo de Internet). La llamada "blogosfera" puede considerarlo como un nuevo fenómeno equivalente entre pares en comparación con los grupos de noticias conversacionales y los tableros de anuncios de los inicios de Internet. Las personas no sólo pueden suscribirse entre sí. Los sitios web pueden vincularse fácilmente a un comentario específico en una página y, a través de un mecanismo llamado trackbacks, pueden saber que cualquier otra persona ha vinculado su página y puede corresponder o agregar un comentario.
Curiosamente, este tipo de vínculos bidireccionales era el objetivo de los primeros sistemas de hipertexto como Xanadu, que eran puristas del hipertexto. ya celebrado como citas. Un paso hacia un vínculo bidireccional. Tenga en cuenta que un anuncio de referencia no es un vínculo bidireccional verdadero, sino más bien un vínculo unidireccional simétrico que (potencialmente) logra el efecto de un vínculo bidireccional. La diferencia parece posible. Es sutil, pero enorme. Los sistemas de redes sociales como Friendster, Orkut y LinkedIn requieren la confirmación del destinatario para establecer algún tipo de conexión y, por lo tanto, carecen de la escalabilidad de la propia arquitectura de Internet. Caterina Fake, cofundadora del servicio para compartir fotografías Flickr, señala que la atención sólo llega cuando sucede (por lo tanto, Flickr permite a los usuarios establecer listas de vigilancia, es decir, cualquier cosa. Los usuarios pueden suscribirse a las secuencias de fotos de todos los demás usuarios a través de RSS . Los objetos de atención serán notificados, pero no tienen que reconocer esta conexión)
Si una de las esencias de la Web 2.0 es utilizar la inteligencia colectiva, para depurar Internet como una llamada. cerebro global, entonces la blogósfera es el parloteo del prosencéfalo, el tipo de voz que escuchamos en nuestra cabeza, que puede no reflejar la naturaleza a menudo inconsciente del cerebro, sino el equivalente del pensamiento consciente. pensamiento y atención, la blogósfera ha llegado a tener una poderosa influencia.
En primer lugar, debido a que los motores de búsqueda utilizan enlaces para ayudar a predecir páginas útiles, los blogueros desempeñan un papel desproporcionado. en la configuración de los resultados de los motores de búsqueda. En segundo lugar, porque la comunidad de blogueros es tan autorreferencial y centrada en los demás que los bloggers amplían sus horizontes y capacidades, y la "cámara de eco" que los críticos critican es un amplificador. volverse aburrido. Pero al igual que Wikipedia, los blogs utilizan la inteligencia colectiva como filtro. Lo que James Suriowecki llama "la sabiduría de las multitudes" entra en juego, y así como la técnica PageRank produce resultados que superan a cualquier documento analizado, los blogs El enfoque colectivo del círculo filtrará lo que es valioso.
Si bien los principales medios de comunicación pueden ver a los blogs individuales como competidores, lo que realmente los pone nerviosos será la competencia con la blogósfera en su conjunto. No se trata sólo de una competencia entre sitios web, sino también de una competencia entre modelos de negocio. El mundo de la Web 2.0 es también el mundo de lo que Dan Gillmor llama "Nosotros, los medios". En este mundo, es la llamada "audiencia original", no pocas personas en la densidad, quienes determinan lo que es importante.
3. Los datos son el próximo Intel Inside
Cada aplicación importante de Internet ahora está impulsada por una base de datos especializada: el rastreador web de Google, el directorio de Yahoo! (y el rastreador web), La base de datos de productos de Amazon, la base de datos de productos y vendedores de eBay, la base de datos de mapas de MapQuest, la biblioteca de canciones distribuidas de Napster. Como Hal Varian