L’ottimizzazione dei motori di ricerca (SEO) è un’ancora dell’imprenditoria moderna.

L’ottimizzazione dei motori di ricerca (SEO) è un’ancora dell’imprenditoria moderna perché metà dei clienti inizia a cercare un marchio utilizzando un motore di ricerca.

Google è particolarmente importante qui in quanto detiene una quota netta del motore di ricerca di quasi il 75%, ma domina ancora di più il mercato mobile in crescita con oltre il 90%. Tuttavia, il problema con l’ottimizzazione del sito Web è che gli algoritmi di Google continuano a cambiare.

 

artificial intelligence MARKETING

PERCHÉ SUCCEDE?

La risposta è “reti neurali”.

Una rete neurale è una serie di algoritmi che tenta di riconoscere le relazioni sottostanti in un insieme di dati attraverso un processo che imita il modo in cui opera il cervello umano. Questo modello basato sull’intelligenza artificiale è la pietra angolare dell’apprendimento automatico che Google sfrutta per migliorare l’esperienza dell’utente. Ma le reti neurali influiscono anche su altri processi.

La tecnologia consente l’acquisto di supporti programmatici, analisi di mercato, chatbot del servizio clienti, consigli sui prodotti e molte altre funzionalità. In questo post, tuttavia, ci concentreremo sull’ottimizzazione e ti mostreremo come le reti neurali definiscono il futuro del SEO.

Prima di iniziare a descrivere come le reti neurali rimodellano gli algoritmi dei motori di ricerca, dobbiamo farvi conoscere DeepMind, un’azienda focalizzata sull’intelligenza artificiale che Google ha acquisito nel 2014 per $ 600 milioni.

DeepMind è il leader globale nella ricerca sull’IA e la sua applicazione per un impatto positivo. Hanno già migliorato l’efficienza energetica dei data center di Google, riducendo l’elettricità necessaria per il raffreddamento fino al 40%. Tuttavia, il ruolo principale di DeepMind è lo sviluppo di reti neurali.

 

Vale a dire, la società sta sviluppando programmi che possono imparare a risolvere qualsiasi problema complesso senza che sia necessario insegnare come. Si occupano di una vasta gamma di progetti, i cruciali sono questi:

  • Metodi massicciamente paralleli per l’apprendimento del rinforzo profondo
  • Apprendimento approfondito di rinforzo in ampi spazi d’azione discreti
  • Apprendimento adattativo della differenza temporale dei minimi quadrati Lambda
  • Reti di decomposizione del valore per l’apprendimento cooperativo multi-agente
  • Apprendimento di rinforzo vincolato al rischio con criteri di rischio percentuali
  • Se questo sembra molto complicato, è perché lo è! Tuttavia, i loro sforzi si traducono in benefici altamente pratici.

IN CHE MODO LE RETI NEURALI INFLUENZANO IL SEO

L’apprendimento automatico è in grado di approfondire l’essenza del contenuto del sito Web. Per questo motivo, può venire con una nuova formula SEO e trovare un modo migliore per classificare le pagine web. È un processo complesso, ma Google sfrutta i suoi immensi vantaggi. Ecco 8 modi in cui le reti neurali influenzano il SEO:

1. MIGLIORAMENTI DEI CONTENUTI

L’intelligenza artificiale ha il maggiore impatto sul contenuto del sito Web perché promuove la qualità rispetto al riempimento di parole chiave. All’inizio di Google, potevi semplicemente sovraccaricare un post con parole chiave per massimizzare il potenziale SEO. Tuttavia, i tempi sono cambiati e ora è necessario prestare maggiore attenzione alla qualità e alla pertinenza dei contenuti.

Ad esempio, questo è il motivo per cui i post sul blog stanno diventando più lunghi. Secondo lo studio, la lunghezza ideale di un articolo di blog è ora di 1,6 mila parole. Un utente medio vuole leggere post altamente analitici che trattano argomenti da tutte le angolazioni. Lo stesso vale per gli elementi visivi poiché non puoi più aspettarti che il pubblico si impegni con foto o video generici.

Tutto ciò che crei e pubblichi deve distinguersi dalla massa per guadagnare una classifica più alta. Ma se non sei in grado di fornire, le reti neurali lo rileveranno e distruggeranno le tue speranze di classifica.

2. RISULTATI DELLA RICERCA BASATI SUI CONTENUTI

Il secondo miglioramento va di pari passo con il primo. L’apprendimento automatico comprende il contesto di ogni query di ricerca, quindi può visualizzare risultati che corrispondono perfettamente alle esigenze dell’utente. Cosa significa?

Significa che gli utenti ottengono esattamente ciò che stanno cercando. Supponiamo che tu voglia acquistare un nuovo impermeabile, ma specifichi la ricerca aggiungendo “blu”. In questo caso, AI ti mostrerà risultati orientati al contenuto che portano davvero a impermeabili blu anziché a impermeabili di qualsiasi colore.

È un esempio semplice ma molto chiaro di risultati di ricerca basati sui contenuti. In questo modo, il sistema garantisce un livello più elevato di personalizzazione e rende più facile per il ricercatore trovare contenuti pertinenti.

3. EFFICIENZA DELL’ALGORITMO MIGLIORATA

Probabilmente hai già capito che le reti neurali rafforzano gli algoritmi dei motori di ricerca. Google sta diventando più intelligente con ogni iterazione delle richieste degli utenti, migliorando così l’esperienza complessiva a lungo termine.

Ad esempio, Google conosce tutti i libri che hai mai cercato online. Tale conoscenza consente ai motori di ricerca di fornirti risultati più pertinenti la prossima volta che inizi a cercare un nuovo libro. Ti suggerirà autori che coltivano stili simili o provengono dalla stessa epoca.

Gli algoritmi analizzano l’intera cronologia delle richieste e delle posizioni, quindi il sistema sta diventando più potente nel tempo.non si basa più esclusivamente sulle parole chiave perché la conoscenza contestuale contribuisce ancora di più alla pertinenza dei risultati di ricerca. In tali circostanze, è quasi impossibile superare il sistema e guadagnare posizioni di vertice con contenuti irrilevanti.

 

 

NNP AI DOMINATION

CHIP CHIMERA DI D-WAVE NEL DICEMBRE 2009.

Con la notizia che l’Università di Bristol ha fatto un importante passo avanti in un’area chiave dell’informatica quantistica, arriva un bagaglio significativo per l’industria SEO. Google ha già espresso il suo interesse per il mondo dei computer quantistici, dilettandosi con il chip Chimera di D-Wave nel dicembre 2009.

Quel chip non faceva parte di un vero computer quantistico, ma ha ottenuto risultati impressionanti.

Quindi, cos’è il quantum computing e come potrebbe influire sulla SEO?

Il calcolo quantistico si riferisce a computer che si affidano direttamente a roba meccanica quantistica. È relativamente facile creare un computer che si basa sulla comprensione della meccanica quantistica, come già fanno i computer “classici”, utilizzando i semiconduttori.

Il vero trucco è fare uso di due fenomeni quantistici:

La “sovrapposizione” è la capacità di un oggetto di trovarsi contemporaneamente in una varietà di stati. “Entanglement” è il punto in cui i cambiamenti in una particella subatomica si riflettono direttamente in un’altra particella subatomica collegata. Il risultato più probabile del calcolo quantistico su larga scala, per quanto riguarda la SEO, sarebbe un aumento dell’accesso di Google alla potenza di calcolo e una riduzione del loro utilizzo delle risorse.

Se potessero concentrarsi sul mantenimento di un cluster più piccolo di computer quantistici, ad esempio, potrebbero essere in grado di utilizzare metodi più estesi di “Mechanical Turk” per verificare i siti. Meno probabile, se Microsoft avesse ottenuto il salto su Google, Bing avrebbe potuto ottenere dei veri guadagni: un servizio migliore per i siti Web e la possibilità di rinnovare completamente i loro algoritmi di ricerca.

PER LE AGENZIE SEO, PRESENTERÀ UNA SERIE DI NUOVE SFIDE.

Le attività di elaborazione più grandi verrebbero eseguite attraverso server di proprietà diretta di Google e Microsoft, il che potrebbe portare a enormi conflitti di interesse.

I motori di ricerca saranno in grado di eseguire algoritmi più sofisticati e probabilmente saranno in grado di rilevare in modo affidabile la costruzione di link SEO e modelli di parole chiave. Potrebbero penalizzare il SEO tradizionale.

L’ottimizzazione del contenuto e del sito potrebbe finire per essere le parti più importanti del marketing online e la differenza visibile tra molte campagne digitali e la pubblicità tradizionale inizierà a scomparire.

Non preoccuparti troppo. Un importante passo avanti è una via d’uscita, un buon decennio secondo stime prudenti.

GOOGLE E NASA COLLABORANO. CORRE L’ANNO 2013.

Google e la NASA hanno unito le forze per lanciare il Quantum Artificial Intelligence Lab che consentirà ai ricercatori delle due organizzazioni e un certo numero di università di ricercare l’intelligenza artificiale utilizzando i computer quantistici. Il laboratorio utilizzerà un computer D-Wave 2 al prezzo di circa $ 15 milioni.

Il computer di D-Wave, che per anni ha sollevato polemiche sul fatto che si tratti davvero di un computer quantistico, è un’unità di seconda generazione che è valutata a 512 qubit e fa uso di effetti quantistici che in teoria possono fornire prestazioni di diversi ordini di grandezza superiore a quello dei computer tradizionali per determinati carichi di lavoro.

La collaborazione di Google e della NASA ha lo scopo di favorire la ricerca sull’apprendimento automatico utilizzando il computer quantistico di D-Wave. Per Google, la ricerca sull’apprendimento automatico presenta alcuni ovvi vantaggi nel cercare di associare un significato contestuale ai dati raccolti.

La NASA fa inoltre ampio uso dell’elaborazione ad alte prestazioni per le sue ricerche e missioni.

 

E ANCORA ! D-WAVE SYSTEMS

D-Wave Systems sviluppa sistemi di calcolo quantistico per uso commerciale in logistica, bioinformatica, scienze della vita e fisiche, finanza quantitativa e automazione della progettazione elettronica. Il sistema D-Wave One è un sistema di elaborazione ad alte prestazioni progettato per i problemi industriali incontrati da aziende, governo e università.

Gli esempi oggi includono l’uso di supercomputer per modellare lo spazio meteorologico, simulare atmosfere planetarie, esplorare la magnetoidrodinamica, imitare le collisioni galattiche, simulare veicoli ipersonici e analizzare grandi quantità di dati di missione “, ha affermato Colin Williams, direttore dello sviluppo aziendale e partnership strategiche presso D-Wave.

Oltre a Google e alla NASA, il 20 percento dei cicli di calcolo della macchina sarà disponibile gratuitamente per i ricercatori universitari. Tuttavia, i ricercatori universitari dovranno presentare proposte e passare attraverso un processo competitivo per ottenere l’accesso alla macchina.

 

DI SEGUITO MOSTRA IL POSIZIONAMENTO DELL’ONDA D NEL PROCESSO.

Dati di input–> D Wave -> classificazione

Quando viene scritto un algoritmo, ci sono tag con somiglianze che possono essere recuperati su 80 millisecondi come: auto, BMW, Porche ecc. O parole chiave come: bambini, bambini, pagliaccio, divertimento e colore con immagini simili.

L’apprendimento automatico è un approccio particolare al compito computazionale. Quando un progettista di algoritmi scrive un algoritmo, il suo lavoro non è finito. Devono ottenere i loro dati attraverso diversi processi per farlo funzionare correttamente.

Ad esempio per recuperare i dati su “Lamborghini” se la macchina recupera l’anatra, un programmatore del motore di ricerca deve penalizzarlo per l’invio di un output errato. Quindi nell’apprendimento automatico si tratta di addestrare l’algoritmo.

 

E BERT COSA C’ENTRA?

UNA MIGLIORE COMPRENSIONE DI BERT

BERT è un framework di elaborazione del linguaggio che è noto per essere tecnologicamente superiore a tutto ciò che era stato creato in precedenza. La lingua richiede risultati basati su varie undici funzioni cruciali di elaborazione del linguaggio. Sono implicazioni testuali (ovvero la previsione della frase successiva), risoluzione di riferimento, determinazione dell’entità, classificazione del testo ed etichettatura dei ruoli semantici. La lingua evita ogni confusione che scaturisce dalla disambiguazione delle parole che hanno molti significati in senso letterario.

BERT è ufficialmente ampliato come “Rappresentazioni di encoder bidirezionali dai trasformatori”. È importante capire come funziona questa lingua al fine di trovare le risposte al motivo per cui un particolare sta raggiungendo la cima delle inserzioni di Google e perché a volte non lo fa.

In passato, quando una persona digita una parola o frase di ricerca, queste vengono prese come parole chiave da Google. Sulla base di queste parole chiave, Google avrebbe scoperto le pagine corrispondenti e le avrebbe allineate affinché lo spettatore potesse selezionare. Quindi il problema è che a volte anche pagine di siti Web irrilevanti venivano visualizzate e che avrebbero avuto un impatto negativo nelle menti degli spettatori.

Una delle principali caratteristiche evidenziate di BERT è il fattore bidirezionale. Aiuta la lingua a confrontare ogni parola con tutte le sue possibili parole correlate. Elenca le possibili relazioni con vari termini e fa anche un notevole tentativo di trovare il senso o il significato reale del contesto. In questo modo, l’utente otterrà un elenco molto più raffinato di tutte le ricerche possibili in relazione a ciò che aveva richiesto. Ciò ha dimostrato di essere particolarmente utile per le persone rispetto agli aggiornamenti precedenti. Quindi, in breve, Google è diventato abbastanza intelligente da capire di cosa abbiamo bisogno e fornire questi risultati nel miglior modo possibile.

QUANTUM - DOMINION

NON e’ CHIARO ? PARTIAMO DA LONTANO !

GRANDE AGGIORNAMENTO N. 1: HUMMINGBIRD (2013)

Nel 2013, Google ha presentato il suo nuovo algoritmo Hummingbird, che è ancora oggi il suo algoritmo di ricerca principale. Il nome del colibrì deriva da ciò a cui Google voleva dare la priorità: essere “preciso e veloce”. Ed essendo più potente del precedente algoritmo di Google, Hummingbird ha capito meglio il linguaggio naturale. Potrebbe comprendere il significato dietro le parole dell’utente, considerando il contesto delle parole piuttosto che cercare di abbinare singole parole in una query a parole in una pagina web.

Hummingbird divenne anche la base per Google per costruire algoritmi futuri più intelligenti.

GRANDE AGGIORNAMENTO N. 2: RANKBRAIN (2015)

La prima aggiunta di intelligenza artificiale (AI) di Google all’algoritmo Hummingbird, nel 2015, è stata RankBrain. Questo sistema di apprendimento automatico ha fornito informazioni a Google per migliorarne i risultati e senza intervento umano.

Mentre ci sono centinaia di diversi “segnali di classificazione” che Google utilizza per classificare le pagine in risposta alla domanda di un utente, RankBrain è significativo perché è uno dei tre principali fattori che Google utilizza (arriveremo agli altri due in un momento) .

RankBrain converte ricerche di parole chiave specifiche in argomenti noti per trovare pagine che potrebbero non contenere le parole esatte cercate.

ED ECCO LA NUOVA TAPPA N. 3: BERT (2019)

Il prossimo algoritmo di intelligenza artificiale, nel 2019, è stato BERT, che sta per “Rappresentazioni di encoder bidirezionali dai trasformatori”.

Questa era un’estensione di RankBrain – piuttosto che concentrarsi sulle parole chiave a coda lunga e sulla soddisfazione dell’utente (l’utente ottiene ciò di cui ha bisogno?), È più sottile. Google sta migliorando alcuni dei dettagli più precisi su come utilizziamo il linguaggio naturale.

La parola “Transformers” nell’acronimo BERT si riferisce, come spiega Google, “modelli che elaborano le parole in relazione a tutte le altre parole in una frase, anziché una per una in ordine”.

Nel corso di questi cambiamenti, Google ha migliorato sempre di più il linguaggio naturale e la comprensione degli argomenti e delle relazioni tra tali argomenti. Ciò significa che può fornire sempre più agli utenti risultati più utili e pertinenti, attraverso l’IA.

CLASSIFICA/RANKING E PERMANENZA

L’obiettivo di Google è sempre stato quello di fornire i risultati più utili e pertinenti ai propri utenti. Per fare ciò, utilizza (almeno) 200 diversi fattori di classificazione, ma Google ha descritto i tre principali fattori di classificazione come contenuto, collegamenti e RankBrain.

Prima che entrasse in gioco l’algoritmo Hummingbird, rimanere pertinenti era spesso il caso del miglior risultato ottimizzato per le parole chiave. Ora è molto più di questo. Rilevanza oggi riguarda l’essere il risultato più utile.

Devi creare contenuti che risolvano il problema riscontrato da un utente o che rispondano alla domanda che stavano ponendo. Quando Hummingbird e RankBrain si combinano, stanno diventando sempre più bravi a capire se un ricercatore è soddisfatto dei risultati che ottengono – e le pagine che forniscono alti livelli di soddisfazione degli utenti saranno classificate più in alto.

 

 

AI MARKETING SEO

CHE DIRE DELLA LINK BUILDIING?

Nel 2014, Matt Cutts di Google ha dissipato l’idea sbagliata secondo cui PageRank è una misura di popolarità (dove vanno le persone), spiegando che era più a che fare con la reputazione (dove le persone si collegano).

È interessante notare che Matt ha aggiunto che Google ora guarda PageRank in un modo più attuale, che si adatta a dove Google sta andando in generale. Pertanto, se sei un’autorità su un argomento e sei collegato da altre pagine di attualità su Internet, Google ne prenderà atto.

Per essere “super pertinenti” nel mondo di oggi, i tuoi contenuti richiedono livelli elevati di soddisfazione degli utenti (RankBrain) e collegamenti pertinenti (PageRank topici). Il PageRank di attualità non è molto discusso, ma la pertinenza dei tuoi collegamenti può avere un effetto significativo sulla rilevanza dei tuoi contenuti.

ANALISI BACKLINK AMPIA E PROFONDA

Se stai usando uno strumento di analisi del backlink come Moz Explorer Link, vale la pena pensare agli argomenti e al modo in cui tali argomenti si relazionano tra loro: non pensare solo all’autorità di dominio del sito da cui speri di ottenere un collegamento .

Nel 2016, Google ha acquisito codice di apprendimento automatico. Utilizza un modello di apprendimento approfondito e approfondito per comprendere meglio come gli argomenti sono correlati. Anche se non sono un programmatore, mi ha fatto pensare come questo approccio “ampio e profondo” potesse applicarsi anche all’analisi del backlink.