Szépen lassan elavul a web? - Szoftver Tippek

Szépen lassan elavul a web?

Egyre gyakrabban kell használnom a Google kereső azon funkcióját, amely lehetővé teszi, hogy dátum szerint szűrhessem a találatokat, hogy például csak azokat a találatokat jelenítse meg, amelyek egy évnél frissebbek, ugyanis rengeteg olyan weboldalba botlok, ami bár elől van a találati listákon, tehát értékes oldal, mégis irreleváns információt tartalmaz. Nem spamről vagy webszemétről van szó, ezek az oldalak valójában értékesek voltak, de csak voltak, ezelőtt pár évvel.

Vegyünk egy példát. A minap egy olyan bejegyzést írtam, amelybe egy YouTube videót szerettem volna beilleszteni. Az oldalt WordPress hajtja és a legújabb verzióban már nem lehet csak az embed kódot bemásolni. Ekkor következett a keresés megoldás után. A Google szinte kivétel nélkül olyan cikkeket jelenített meg az első pár oldalon, amik régebbi WordPressre nyújtottak információt. Ezek az oldalak egykor mind-mind releváns és hasznos információt tartalmaztak, de az mára már elavult. Volt eset, mikor egy bejegyzésben olyan weboldalt vagy online szolgáltatást mutattak be, ami azóta megszűnt, a domain lejárt, valaki újraregisztrálta és egy teljesen más témával foglalkozó oldalt hozott rá létre. A baj az, hogy ezek nem egyedi esetek, a web lassan kezd elavulni, már ami az információt illeti. Természetesen folyamatosan jelennek meg új cikkek, tartalmak, de a Google szemében jelenleg egy vadi új cikk, egy új URL nem annyira értékes, mint egy 3-4 éves, amire akár több ezer link mutat.

Ok, a megoldás? Nincs. Egyelőre. Ebben az esetben két nézőpont van: az oldal tulajdonosoké és a keresőké. Weblap tulajdonosként az az elsődleges célom, hogy új tartalommal bővüljön az oldalam, amit minél többen olvasnak majd, egy igényes bejegyzésbe pedig viszonylag sok időt és energiát kell fektetni témától függően. Néha az is elég nehéz, hogy folyamatosan friss információt tárjunk olvasóink elég, arra már végképp nem sok idő marad, hogy a régi bejegyzéseket is folyamatosan figyeljük és frissítsük. A tökéletes megoldás az lenne, hogy töröljük a már elavult bejegyzéseket, de szeretném látni, hogy ki képes a törlés linkre kattintani egy olyan cikk esetében, amely megírására akár heteket is fordított. Főleg ha egy rakás külső link is mutat már rá…

A másik felől a keresők állnak. Számukra az a fontos, hogy a felhasználó releváns találatokat kapjon, különben más keresőt fog használni. Láthatjuk, hogy a Google folyamatosan küzd a webspam és gyenge minőségű tartalom ellen, de ez egy olyan probléma, aminek megoldása nem egyszerű, hiszen vannak olyan témák amelyek soha nem válhatnak elavulttá, legalábbis nagyon kicsi rá az esély, mint például egy a levegő összetételéről szóló cikk. A Google már megtette az első lépést a probléma orvoslásában, lehetővé teszi a felhasználók számára, hogy szűrjék a találati listát a cikkek kora szerint. Ez így egyelőre rendben is lenne, de kíváncsi vagyok, hogy az átlagfelhasználók hány százaléka fedezi fel és használja? Hosszú távon mindenképp a keresők algoritmusán kell változtatni, esetleg büntetni az oldalakat, amelyek elavult információkat tartalmaznak, bár ez nem tudom mennyire lenne fair lépés…

És ha a webmesterek nem kezdik törölgetni az elavult tartalmat, akkor mi történik? 10 év múlva az adatbázis szerverek olyan információktól fognak izzadni, amikre már senki se kíváncsi. A szerverek biztosan tovább fognak fejlődni, gond nélkül elbírják majd, de vajon milyen lesz majd a web? Egy szemétdomb, aminek csúcsán két szál virágot fúj a szél?



A hozzászólások lezárultak.