Turing versus Wittgenstein. Matemáticas versus semántica.

It's only fair to share...Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInEmail this to someone
Pin on Pinterest

Cambridge, 1939. Alan Turing, considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna, regresa a Inglaterra después de ampliar sus estudios en Princeton donde había estado trabajando sobre el concepto de hipercomputación. Este concepto permitía una aproximación más que real al estudio de los problemas para los que no existe una solución algorítmica.

A su regreso, asistió a las conferencias del matemático y filósofo Ludwig Wittgenstein sobre las bases de las matemáticas. El estudio de conceptos matemáticos básicos como números, figuras geométricas, conjuntos, funciones, etc. y cómo forman jerarquías de estructuras y conceptos más complejos, especialmente las estructuras fundamentalmente importantes que forman el lenguaje de la matemática.

Ambos discutieron y mantuvieron un vehemente desencuentro, ya que Turing defendía el formalismo matemático y Wittgenstein criticaba que la matemática estaba sobrevalorada y no descubría ninguna verdad absoluta.

Casi un siglo después nos encontramos en ¿1939? a la hora de abordar determinados retos con los que queremos mejorar la experiencia del usuario en internet. La manoseada pero real aproximación algorítmica y sus ‘mágicos’ resultados, a partir de métodos predictivos o deductivos, versus un acercamiento semántico basado en la proximidad entre conceptos y las relaciones existentes entre ambos.

Creo que si estos dos genios hubieran compartido unas cuantas pintas de cerveza habrían inventado la Web Semántica.

Para el mundo del marketing en internet parece tener más valor el modelo matemático para poder predecir determinadas actuaciones, o al menos para poder catalogarlo dentro de un cajón al que se le asigna un valor.

Pero internet es cada vez más contenido. Todos hemos escuchado los siguientes mantras: “el contenido es el rey”, “la distribución es la reina”. Hace poco me cautivó este “la conversación es el reino”. A lo anterior hay que añadir que sólo el 10% del contenido de internet es original el 90% es copia o copia de copia.

No es de extrañar por ello que tanto Google como Facebook estén trabajando en la aproximación semántica al “problema del contenido en internet”. Google con su  Knowledge Graph y Facebook con el Social Knowledge Graph. En el fondo se trata de la creación de tecnologías para publicar datos, legibles por aplicaciones informáticas. Se basa en la idea de añadir metadatos semánticos y ontológicos a la web. Con perdón, añadir un dato al dato. O expresado de otra manera: añadir un dato capaz de ser computable por una máquina.

fed813cd-ab54-4b31-9a61-272b5d5f9be5-2060x1236RDF  define el lenguaje universal con el cual podemos expresar diferentes ideas en la Web Semántica. RDF es un lenguaje simple mediante el cual definimos sentencias en el formato de una 3-upla o triple (sujeto: el recurso al que nos referimos; predicado: el recurso que indica qué es lo que estamos definiendo; y objeto: puede ser el recurso o un literal que podría considerarse el valor de lo que acabamos de definir).

Ejemplo: Una máquina, Google entre ellas, deja de ver a Obama como la unión de letras o-b-a-m-a y pasar a verlo como una entidad. Obama – Personaje, Presidente de los EEUU, https://es.wikipedia.org/wiki/Barack_Obama, y a partir de ahí infiere muchos más datos.

¿Por qué poner ese titular tan poco atractivo para hablar del cambio de algoritmo de Google? Por dos motivos: El primero porque cada vez me gusta menos ese ‘periodismo’ basado en un titular que atraiga y nada dentro. El segundo porque el nombre de ese algoritmo es Knowledge-Based Trust Score.

Google recientemente ha presentado un nuevo sistema de posicionamiento SEO. Por el momento no está del todo claro a qué se refieren los nuevos cambios de algoritmo, por lo que es más que probable que haya que esperar al próximo curso de Google sobre SEO para poder entrar en detalles. Sin embargo, sí que podemos adelantar ciertos puntos.

Este nuevo sistema, conocido por las siglas KBT (Knowledge-Based Trust Score), comenzará a darle una mayor importancia a la información fáctica de un sitio web o, lo que es lo mismo, será la calidad del contenido la base del posicionamiento, dejando atrás otros factores como los enlaces o las menciones. De acuerdo con esto, Google busca una clasificación de los sitios web en hechos, no en enlaces. De esta forma, la idea principal es identificar los hechos clave de una web y asignar una puntuación de confianza de acuerdo a su precisión.

Con los algoritmos actuales, los backlinks son un medidor de popularidad que indica la autoridad de una web sobre un tema en particular, no obstante, esta popularidad no siempre implica que contenga información precisa. Con este nuevo algoritmo, en el que primaría más la calidad y precisión del contenido que la autoridad en sí, podrían beneficiarse páginas web de interés con un Page Rank bajo, que normalmente son obviadas por la tecnología actual.

El director de ingeniería de Google, Ray Kurzweil, se ha encargado del desarrollo de una inteligencia artificial que puede entender el contenido de cualquier web en sí mismo, sin necesidad de depender de otras señales externas como son los enlaces. La idea principal es identificar los hechos clave de una web y asignar una puntuación de confianza de acuerdo con su precisión.

¿Cómo lo hicieron?

El equipo de Google indexó millones de páginas web y extrajeron 2,8 millones de datos fiables. Luego, compararon estos datos con información que encontraron en 119 millones de páginas web para determinar el nivel de fiabilidad de cada página. Cuando manualmente revisaron los resultados encontraron que su algoritmo tenía un alto grado de confiabilidad para establecer un “ranking de confianza”.

¿Qué significaría este nuevo índice de confianza (KBT) para el SEO?

El nivel de confianza o exactitud de una página web es definido como “la probabilidad de que ésta contenga un valor correcto para un dato determinado (ej: la nacionalidad de Obama) asumiendo que puede tener cualquier valor.

Imaginemos ahora que esta variable es incorporada dentro del algoritmo, eso significa que ahora no sólo se trata de tener links hacia páginas ‘relevantes’ o tomar datos de sitios con gran cantidad de visitas sino que debemos estar seguros que estos datos sean correctos. Por otro lado, una página con pocos datos pero certeros tendría un KBT más alto que una con mucha información pero no confirmada.

Si bien esta no es una modificación que se vaya a implementar de manera inmediata, queda claro que la tendencia -como ya se ha visto- pretende seguir privilegiando el contenido relevante.

Por último, cada vez que escribo un artículo sobre SEO me doy cuenta de que estamos haciendo una internet a la medida de Google… y no creo que eso sea bueno.

VERSION EN INGLES. Turing_versus_Wittgenstein

It's only fair to share...Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInEmail this to someone
Pin on Pinterest

Deja un comentario