SEO | ¿Como Nace El Marketing Por Internet?

Share on facebook
Share on twitter
Share on linkedin

SEO, acrónimo de uso frecuente en el mundo del mercadeo por Internet, se refiere —en inglés— a dos conceptos conexos e inmediatos. A saber, SEO puede significar Search Engine Optimization y designar, entonces, el proceso de publicidad y difusión que posiciona, realza y da notoriedad a un sitio web; SEO también puede significar Search Engine Optimizer y designar, entonces, al profesional o a la empresa que diseña y provee tal servicio.

Aunque el español, al igual que todas las lenguas contemporáneas, ha experimentado un auténtico alud de voces inglesas en el campo de la informática, search engine no ha penetrado, digamos, “con la misma crudeza” de otros términos. El hispanohablante promedio suele referirse a “buscadores” o a “motores de búsqueda” (esta última, una traducción más próxima al original).

En un principio, y durante décadas, search engine fue el nombre genérico de los programas que recuperaban información en una sola computadora; luego, con la aparición de la Internet, search engine pasó a designar, casi exclusivamente, aquellos sitios que ejercían análoga función —recuperación, indexación de datos— ya no en una sola unidad, sino en esa “zona de nadie” o, mejor dicho, en esa “zona de todos” que llamamos la web.

+ Una historia veloz y cambiante

Si tuviésemos que elegir un punto de partida, 1975 sería un buen año.

Soplaban vientos de la Guerra Fría. Ante la eventualidad de un ataque nuclear soviético, los órganos de defensa norteamericanos recelaban el colapso de sus canales de comunicación: si un punto estratégico caía —si Washington D.C., por ejemplo, se esfumaba bajo el hongo atómico—, los demás eslabones debían mantenerse en contacto; una ruptura de la cadena de mando podría haber sido fatal. La comunicación como un asunto de supervivencia de la nación.

Así, pues, en 1975, el Departamento de Defensa de los Estados Unidos tendió una red informática experimental, ARPANET, ancestro de lo que hoy conocemos como la Internet.

Ninguna bomba atómica devastó los Estados Unidos, como bien lo sabemos; pero el interés en las redes informáticas no se diluyó y, mejor aún, se trasladó a un territorio más pacífico y fértil, las universidades.

A principios de la última década del siglo XX, Tim Berners-Lee trabajaba para la Organización Europea de Investigación Nuclear (CERN, por su nombre en francés). Facilitar el intercambio de datos, resultados y novedades entre los científicos, entregarles una herramienta informática útil y agilísima, tal fue el objetivo del Berners-Lee. En 1991, el matemático británico inventó el primer browser, la WorldWideWeb (o, como se le conoce más corrientemente, www). ¿En qué consistía su invento? Pues, en una suerte de lengua franca informática, que franqueaba el traspaso de grandes montos de información de una computadora a la otra. Gracias a la www (el programa), pudo nacer la Internet (la red física).

En las direcciones web, vemos una sigla que resume el aporte de Berners-Lee: http (Hypertext Transfer Protocol). Concepto clave, aquí, hipertexto: significa la convivencia pacífica, sobre un mismo soporte, de múltiples recursos que un usuario administra según su humor o necesidades. (Hipertexto es un paso adelante, si se quiere, en la noción de interfases, esas fronteras abstractas que, al interior de un programa informático, permiten la convivencia ordenada de archivos disímiles). No es impertinente considerar a la web como un gigantesco hipertexto.

En primera instancia, desde la página de la CERN, Lee y sus colaboradores trataron de mantener una lista de los proveedores y de la información disponible. Muy pronto, tal esfuerzo se vio desbordado. De la primigenia lógica militar que alentó su nacimiento, la Internet potenció (casi hasta el delirio) la idea de reproducirse sin centro fijo, sin bordes, para mantenerse “viva” en caso de que uno de sus componentes sucumbiese.

Como tal vez ninguna otra tecnología lo haya hecho en la historia del hombre, la Internet se desarrolló a una velocidad feroz y desconcertante,

+ Mapas del caos

Muy pronto, la web se transformó en un océano. ¿Cómo enterarse? ¿Cómo guiarse en ese laberinto virtual? Surgieron, entonces, los web search engines.

Gigantescas bases de datos que le indican al navegante dónde hallar información de su interés, los search engines devinieron “las puertas de acceso”. Sin ellos, que se trazaron la labor de indexar a los demás sitios web, el espacio virtual acaso habría sido intransitable.

Los search engines descansan en un tipo de programa específico, llamado web crawler (también, web spider o web robot). Un web crawler recorre el espacio virtual de manera insomne y permanente. (En estos momentos, mientras alguien lee estas líneas, miles de crawlers están activos). A diferencia de una base de datos tradicional, en la que personas concretas allegan información pertinente sobre un determinado asunto, la expansión de los web search engines es ciega, automática. La razón es límpida: elaborar un índice exhaustivo de la web excedía, excede y, muy probablemente, seguirá excediendo las posibilidades de una sola persona e, incluso, de una multitud de personas.

Los crawlers viajan, se topan con un sitio web, se detienen, lo husmean, lo exploran, bajan toda la información disponible y, luego, regresan a sus cuarteles. A continuación, el reto de los search engines es indexar, de la mejor manera posible, toda esa información y tenerla lista para cuando un usuario solicite saber respecto de tal o cual tema.

Para explorar la web —procedimiento que, en inglés, recibe el nombre de web crawling o web spidering—, cada search engine desarrolló su propia tecnología, sus propios programas. La “lógica” mediante la cual un crawler apresa y discrimina información depende de los algoritmos con que ha sido diseñado.

El término algoritmo proviene de las matemáticas y designa algo así como una secuencia de instrucciones; específicamente, en informática, un algoritmo es una suerte de unidad mínima de programación, una ecuación que indica los pasos para solucionar un problema.

En un principio, los crawlers anduvieron exclusivamente a la caza de los metatags que todo sitio web tenía codificados en su HyperText Markup Language (una sigla que todo internauta reconoce: HTML). Allí, en el HTML, entre corchetes figuraba una descripción técnica, breve y sintética del contenido del sitio web. Y si los metatags decían que, en tal rincón de la web, había una foto inédita de Napoleón Bonaparte, en Acapulco, a las 3:00 p.m. del 18 de junio de 1989, pues el search engine lo hacía parte de su base de datos. Son los límites de una operación automática. En efecto, ¿cómo “enseñarle” a una máquina a identificar una mentira?

+ La deshonestidad de los webmasters

Muy pronto, los administradores de los sitios web se percataron de que en los metatags radicaba la llave para posicionarse en los primeros lugares de las listas que proponían los search engines. Diversos estudios han confirmado que el ojo del usuario de la web busca de arriba abajo y de izquierda a derecha —esto último, claro, en las lenguas que leen de izquierda a derecha—; figurar, pues, entre las primeras diez direcciones de un listado aumentaba exponencialmente las chances de atraer internautas y devino un sinónimo de éxito en la web.

Los algoritmos de los crawlers primigenios —los primeros search engines, Wanderer y Aliweb, datan de 1993— apuntaban casi exclusivamente a los metatags; pero, como ya se ha dicho, este procedimiento muy pronto se reveló poco confiable: los webmasters deshonestos comenzaron a “inflar” sus productos con descripciones fraudulentas. (Atraer a visitantes que, en verdad, buscan otro tipo de información es una práctica fraudulenta, muy extendida, que los search engines persiguen y condenan con cada vez mayor ahínco. Este engaño, en inglés, ha sido bautizado como spamming).

+ Lógicas en movimiento

Cuando los search engines dejaron de conformarse con la información de los HTMLs, la pregunta fue ¿cómo mejorar el proceso? ¿Cómo medir la relevancia de un sitio web? Preguntas clave, en el corazón del negocio; preguntas que siguen desvelando a programadores y creativos.

Un aporte crucial se produjo en la segunda mitad de los noventa. Dos estudiantes de la Universidad de Standford, Sergey Brin y Larry Page (creadores de Google), decidieron calcular las veces en que un sitio web había sido visitado “desde otro sitio web”; tal variable, conocida como inbound link, constituye, hasta el día de hoy, uno de los criterios más importantes al definir la pertinencia de una página. Con los inbound links, Brin y Page aspiraban a medir los hábitos de la red, el ir y venir del usuario, el flujo mismo de la información: ellos asumieron que una página de gastronomía no había de recomendar otros sitios web que se consagrasen a la mecánica cuántica. Un inbound link es una suerte de recomendación fáctica y una forma de medir la popularidad de un sitio web. Con todo, no fueron la tan ansiada variable infalible: muy pronto, otra vez, muy pronto —porque todo ha ocurrido así, muy pronto, en la historia del espacio virtual—, los webmasters deshonestos se las ingeniaron para “embaucar” a los algoritmos: crearon “granjas virtuales de links” (link farms), reprodujeron spam links, etcétera.

La lucha contra los webmasters deshonestos también mutaba y se encarnizaba. En general, sin embargo, la actitud de los search engines hacia los administradores de los sitios web no es hostil. ¡Al contrario! Esas gigantescas bases de datos… ¡quisieran conocer de qué tratan todos los sitios web! Sin embargo, la velocidad con que se expande la Internet siempre sobrepasa sus esfuerzos. Para cuando los crawlers se hallan “de vuelta en los cuarteles”, nadie puede garantizar que tal o cual sitio web, identificado, recorrido y ya explorado, continúe en línea. A todo internauta le ha sucedido alguna vez completar una búsqueda, seleccionar uno de los links ofrecidos y toparse con el aviso de que esa página “ya expiró”. Por supuesto, los crawlers están diseñados para volver y verificar que los sitios web “sigan allí”, pero esta información también tiene que “volver a los cuarteles”, ser procesada y puesta a disposición de los clientes, y, entonces, nadie puede asegurar que tal o cual sitio web continúe en línea. Un círculo vicioso.

Los crawlers no sólo están diseñados para verificar la vigencia de los sitios web, también les mensuran la antigüedad y la frecuencia de las actualizaciones. En realidad, son múltiples las políticas que entran en juego, y no son criterios estables ni mucho menos. (Últimamente, por ejemplo, existe la tendencia de “penalizar” a las páginas que cambien o eliminen demasiado rápido sus contenidos, pues, se piensa, un contenido “efímero” no ha sido relevante).

+ Mercado inmenso, mercado aún minoritario

Los search engines se hallan muy lejos de la omnisciencia por diversas razones: no faltan crawlers malvados o spambots, que, a manera de virus sueltos, recorren la web y siembran perjuicios y desconfianza. Además, muchos webmasters desean que sus páginas permanezcan “fuera del radar” y, por ese motivo, colocan passwords que alejan a los crawlers o recurren a los robots exclusion protocol (robots.txt), programas que pueden proteger, ya la totalidad, ya una parte de un sitio web. Con todo, la principal razón es meramente cuantitativa: la web es una inmensa masa virtual en movimiento, y ningún search engine se da abasto.

El monto de la surface web, vale decir, el monto de las direcciones electrónicas que los motores de búsqueda han alcanzado hasta la fecha, se calcula en, aproximadamente, 167 terabytes; pero el monto de la deep web, también conocida como deepnet, invisible web o hidden web, vale decir, el monto de las páginas que no han sido “tocadas” por los crawlers, se calcula en, aproximadamente… ¡91 0000 terabytes! Los programadores y los equipos de investigación sufren pesadillas, cuando piensan en este dato. ¡La mayor parte de la web no está ni siquiera detectada!

+ Principales promotores del SEO

En 1997 —el mismo año en que los search engines admitieron que los webmasters deshonestos metían mano en sus listados—, el acrónimo SEO comenzó a circular. La web ya era oceánica, y su importancia, en la vida cotidiana y comercial, creciente. Con el boom de las empresas punto.com, muchos futurólogos y científicos sociales llegaron a predecir que, en algunos rubros, el comercio presencial desaparecería. A partir de 1997, los programadores se aplicaron al desarrollo de focused crawlers o topical crawlers.

Aunque se decidieron a vender “enlaces patrocinados” —publicidad, esos links pagados que aparecen a la vera de los resultados de una búsqueda—, los search engines saben que no pueden imponer artificialmente un sitio. Su negocio es proporcionar información relevante y en el mejor “orden de mérito” posible; si no lo hacen, el internauta buscará en otra parte. En toda área comercial, un cliente engañado o mal atendido no vuelve; en ese reino de lo inmediato, que es la Internet, acaso la fidelidad del cliente sea más volátil. Basta un clic para castigar un mal servicio.

Es usual que los internautas “crucen” resultados; es común que consulten distintas listas. Los search engines no responden igual a las mismas consultas. La manera en que los usuarios insertan las palabras de búsqueda o keywords influyen en los resultados. Cada search engine maneja su propio protocolo y su propia sintaxis. Los “órdenes de mérito” no son los mismos, las listas no son unívocas.

Los search engines son, pues, los primeros interesados en fomentar que los sitios web consignen la información técnica sobre sí mismos de la manera más exacta y menos ambigua posible; los search engines “asesoran” a sus potenciales clientes, desarrollan y ponen a su disposición enlaces con recomendaciones concernientes al mejor diseño técnico de los sitios web.

+ ¿Cómo participar en esa democracia sin control que es la web?

La tecnología en materia de motores de búsqueda no es estática, al contrario, ya está dicho: los crawlers varían, y sus algoritmos siempre están en busca de discriminar con mayor acierto la información. Un solo cambio un solo progreso significa que los sitios web deberán ajustar sus clavijas en consonancia y sintonizar.

Todas esas recomendaciones que los search engines no se cansan de promover, repetir y poner a disposición de sus usuarios reciben el nombre de white hat SEO. Si no se observan estas recomendaciones —si el sitio web no es SEO friendly, vale decir, si no está orientado a ser fácilmente detectable por un search engine—, el riesgo es despeñarse en la deep web y devenir invisible.

Dependiendo del tipo de producto que se desee mercadear, hay que elegir el dominio adecuado —de preferencia, un top-level domain, reconocible gracias a esas letritas que aparecen al final de las direcciones web—; también hay que elegir el servidor correcto; hay que redactar los textos con la densidad suficiente, repitiendo las keywords cuantas veces sea menester. Las herramientas de la white hat SEO, en suma, deben armonizar en la estrategia global que posicionará al producto.

Hacerse visible en el espacio virtual es un trabajo cada vez más técnico y especializado, y también impostergable: competir sin recurrir a la Internet, hoy por hoy, equivale a correr en desventaja. No lo olvidemos, aún estamos en una etapa de desarrollo. De la web semántica que desarrolló Berners-Lee, hemos pasado a la web 2.0, con impensadas posibilidades de intercomunicación y feedback, como, tal vez, ningún otro medio de comunicación lo haya hecho en la historia de la humanidad; y en el horizonte se esboza la web 3.0, en la cual, se especula, la inteligencia artificial jugará un rol revolucionario y le “procesará” la información al cliente. ¿Search engines que nos saluden, conversen e interpreten exactamente lo que estamos buscando? Es difícil predecir el futuro, pero el concepto de “experiencia personalizada en la Internet” podría sufrir un vuelco de ciento ochenta grados.

Al colocarse en línea, no sólo existe la necesidad de contactar a un profesional capaz, sino también honesto. La honestidad, aquí, es una cuestión de supervivencia: tratar de obtener lugares de privilegio, de manera fraudulenta, es altamente atractivo, y también riesgoso.

Con parejo énfasis con el cual promueven y acercan el white hat SEO a los internautas, los search engines persiguen a los practicantes del black hat SEO. En la jerga del oficio, black hat SEO es el nombre genérico de todas esas artimañas que los webmasters deshonestos no cesan de pergeñar para “apropiarse”, de manera fraudulenta, de los primeros lugares de las listas de búsqueda. Prácticas de este tipo pueden llevar a que un sitio web obtenga una buena clasificación momentánea, pero en la Internet todo sucede rápido, y las trampas no son una excepción y también suelen ser descubiertas rápidamente. (En 2007, Google, la empresa líder a escala mundial, vetó en Alemania a compañías tan grandes como BMW y Ricoh y las obligó a vergonzosas rectificaciones públicas). Hoy por hoy, desperdiciar las posibilidades de difusión del espacio virtual equivale a una negligencia mayúsucula; pero dejarse caer en la tentación de un webmaster deshonesto o caer, por desgracia, en manos de un search engine optimizer pícaro, puede redundar, más temprano que tarde, en una severa lesión a ese capital impalpable, sin el cual ninguna transacción comercial es sostenible en el tiempo: el prestigio.

Author

Gean Biffulco

Sign up for our Newsletter