Hoće li Google i kada opet "skršiti" AI sadržaj?

Evo jedna tema za raspravu; Google će opet biti prisiljen na strogu borbu protiv AI sadržaja, samo je pitanjem vremena i načina na koji će to napraviti.

Zadnjih par dana bavim se jednom web stranicom koje je sadržaj kompletno kreiran putem AI.
Nije to više onaj stari AI kojeg je ružno čitati. To su jako lijepo napisani članci, jako lijepa gramatika i konstrukcija rečenica… no, ponovno imamo ogroman problem zbog kojeg će Google, po mom mišljenju, morati potpuno deindeksirati AI sadržaj.

U čemu je problem?
Nakon što sam se dublje pozabavio sadržajem web stranice (inače mi je tema iste bila više manje nepoznata) skužio sam da je većina istog potpuno netočna i nebulozna… a napisana na vrlo lijep način.

Kad sam to skužio, krenuo sam istraživati temu da bi ispravio te greške i nebuloze u člancima… i pri tom sam došao do nevjerojatnih činjenica:

  1. Google nema pojma šta je točna, a šta netočna informacija.
  • Koliko god se oni trudili, točnost informacije nije jedan od ranking faktora jer oni jednostavno nemaju način znati što je točno što nije.
  1. AI je uzeo maha pa je više od 50+% sadržaja u temi koju sam istraživao potpuno netočno.
  • Samim time, prosječnom korisniku internata bi puno korisnije bilo da nikad nije upisao taj kw… jer informacije koje će pročitati tijekom postupka istrživanja teme dovest će ga u teške zablude. U najmanju ruku, pronaći će masu kontradiktornih informacija gdje nikako ne može zaključiti što je točno, a što netočno.
  1. Čak i članci koje nije pisao AI (barem tako kažu detektori) su netočni jer su se koristili izvorima koje im očito daje daje AI.
    Postoji mogućnost da ljudi koji su pisali tocne članke nisu uopće koristili nikakav AI, nego da su jednostavno u pripremi članka čitali pogrešne informacije koje je napisao AI.

Ove tri točke su u temi koju sam istraživao stvorile takav kupus informacija da je to strašno za čistati!

Točne informacije sam na kraju izvukao s nekih prastarih foruma i potvrdio ih direktnim kontaktiranjem zastupljenih web trgovina koje se bave prodajom/proizvodnjom proizvoda iz te niche.

Kako će Google riješiti ovaj problem prije nego što postane potpuno neupotrebljiv?
Mislim da postoje dvije opcije kako će se u (skoroj) budućnosti riješiti ovaj problem.

  1. Centralizacija/verifikacija kreatora sadržaja (moj “favorit”)
  • ako pišeš o nekoj temi moraš imati određeni autoritet (proizvođač, zastupljeni trgovac, diplomirani stručnjak…) potvrđen od strane Googlea.
  1. Potpuna penalizacija AI sadržaja.
  • deindex svega sto ima veze sa AI.

Što vi mislite, hoće li se Google boriti s ovim problemom i ako hoće na koji način mislite da će se izboriti?

P.S. ne mogu vjerovat da je Bing uzeo ovaj AI (i da Google to planira napraviti) da odgovara ljudima na upite. Niđe veze :sweat_smile:

AI se nece moci detektovati ali ce se moci detektovati netacna tvrdnja … laznih vijesti i netacnih podataka je bilo i prije AI-a, sa AI-jem to je sve ubrzano i pojednostavljeno

google ce morati da ojaca fact-checking odjele … isto to imaju i fb i twitter … na google stranici ce ispod svakog linka pisati: “Ovaj sajt objavljuje tacne/netacne podatke” a to ce morati da rade sa strukom … to mogu implementirati i kroz chrome browser … i naravno to sto si spomenuo, autori ce morati da imaju odredjeni autoritet :smiley:

uz Bing + Edge browser + Microsoft account dobijes besplatno GPT 4 i DALL-E :smiley:

rade na uvodjenju watermarka u sve vezano za AI, tako da ce se to uskoro vrlo lako detektovat sa 100% sigurnosti;

@s.perkovic jel si radio na nasem ili na engleskom?

Sto se netacnih informacija tice… jbg i prije ih je bilo jako mnogo, a AI je na tim istima trenirat, tako da je to samo isti problem na drugi nacin. Kako znati da je ono sto je napisao covjek tacno? Mozda je prosjecan clanak s GPT 4 (ili 5) “tacniji” od prosjecnog clanka koji covjek napise… a onda je borba s vetrenjacama da se zbog netacnosti ukine citav AI sadrzaj

Ok, ovo je dosta popularno mišljenje. Ja sam pak uvjerenja da je to nemoguće!

Što će Google postaviti za fact? Odakle mu informacija koja je 100% točna?
Što da oni naprave? Da za svaku informaciju pitaju stručnjaka u micro nichi? … pa da i to naprave, svaki dan nastaju nove micro niche, novi proizvodi itd itd!
Google ne može i nikada neće moći znati što je točna, a što ne točna informacija.

Engl jezik, riječ je o micro nichi.

Mislim da je toga prije bilo puno manje. Pogledaj samo nas tu sa foruma koliko smo ove godine članaka istancali u temama o kojima nemamo pojma.
Ranije to nije bilo 1% trenutnih količina objavljenih gluposti.

Možda je. U rukama verificiranog (stručnog) kreatora sadrzaja sasvim sigurno je.

Sad kad o tom razmišljam, gdje se mi sve moramo verificirati… stvarno nije teško Googleu uvesti ispite nekakve kojima ćeš potvrditi svoju stručnost prije nego što se tvoj site nađe u SERPu.

Po to se na fiverru mora odraditi prije nego što objave tvoj gig u nekim kategorijama.

kako ce watermark biti implementiran? ko ce dokazat ko je rasporedio slova u rijeci i rijeci u recenici?

ne za svaku vec za one popularne … isto kao sto to rade fb ili twitter za objave na engleskom

Ovo je nemoguće, to da oni naprave watermark u ovoj fazi GPT-a još i ajde, ako se ne provuče kroz grammarly pro ili neki drugi alat, ali u budućnosti mislim da će biti nemoguće.

Ne mislim da im ovo ima smisla. Pa i male teme trebaju biti točne… ili je okej ako je netočna info za manje od 100k mjesečnih pretraga?

netacne informacije su problem oduvijek, AI nema veze s tim … ne znam zasto bi google trebao kaznjavati AI sajtove zbog laznih informacija kada su i prije AI-a lazne informacije bile dostupne …

google oduvijek i stalno ponavlja: nama je bitno da je sadrzaj koristan posjetiocu (da ga cesto posjecuje, da dugo ostaje na sajtu, da otvara i druge interlinkove kada procita jednu vijest) … e sad da li je AI ili ne, nebitno

ako posjetilac duze ostaje na sajtu koji objavljuje AI clanke a krace se zadrzava na sajtu koji objavljuje “rucno” pisane clanke, google ce forsirati AI sajt

Pa kako ti netočan sadržaj može biti koristan?

Kužim ja šta ti pričaš, al to ti je samo teorija koja nema uporište u praksi.

pitaj google

ali se ipak neki sajtovi sa netacnim sadrzajem bolje rangiraju od onih sa tacnim, zar ne?

netacne informacije nisu produkt AI-a, bilo ih je i prije :smiley: tako da AI sajtove nece kaznjavati zbog netacnih informacija, niti treba :smiley:

upravo suprotno, AI je prikupio informacije koje su ljudi objavljivali a mahom su netacne :smiley:

Ako se uvede watermark on ce se vjerojatno moci lagano “uklanjati” tako da se malo izmjene recenice, odnosno šablone koje bi stvarale taj watermark, a to bi opet neki drugi AI-ovi mogli obavljati. S watermarkom bi se moglo sprijeciti jedino potpuno automatizirano masovno generiranje neobradjenog sadrzaja. Ne znam stvarno kako ce to Google u buducnosti kontrolirati ali mislim da ce biti sve manje human autora, a sve vise human editora.

I meni se authorship cini kao mozda jedina solucija za probleme sa sadrzajem no nemam pojma kako bi se to moglo izvesti. Prije je postojao authorship faktor za rangiranje u sklopu Google+ profila, no ne znam kako bi Google to opet provodio bez svoje drustvene mreze. Verifikacija kakvu spominjes mi se cini nemoguca. Recimo da se zelis verificirati kao strucnjak za geografiju zar ne bi mogao pozvati svog susjeda profesora geografije da ti pomogne s tim. Cak i kod video verifikacije mozes staviti slusalicu u uho pa da ti profesor diktira sto trebas reci. Tu bi se onda jos umjesali GDPR i ostale pizdarije oko zastite podataka.

Nadam se da Google nece jednostavno prebaciti fokus na razvoj svog vlastitog AI-a, Barda, a trazilicu gurnuti u drugi plan jer to bi, naravno, bio najgori scenarij za nas koji puno ovisimo o Googlu.

1 Like

Tko se snađe, svaka čast… ti ljudi bi bili iznimke (ja nemam nikoga tko bi mi mogao pomoći oko teme o kojoj trenutno pišem) al ovo sto se trenutno događa Google čini neupotrebljivim. Svi možemo pisati o čemu hoćemo, i svi pišemo o svemu… to jednostavno nije održivo. Google će to na neki način morat rijesit ako planira opstati.

to se dogadja od osnivanja googlea …

Pratim Google već cca 10 godina i odgovorno tvrdim da se ovo nikad nije događalo u ovoj mjeri. Uvijek je bilo netočnih informacija, al nikad niti približino kao što je to danas slučaj.

1 Like

jbg, onda se isto tako moze autotomatizovan i taj post-production gdje se uklanja watermark

s tim se slažem, pogotovo kada tražiš nešto na našim jezicima - blaga katastrofa.

Ja ovako slično nešto i radim za svoj sajt. Znači nema automatizma nikakvog, upalim chatgpt, dam mu headingse, i za svaki headings mu napišem točno što želim da kaže - tj. dam mu informacije, iskustvo, itd… I ispadnu mi super članci, puno bolje nego što bi ja sam napisao jer on to sroči 10x bolje… E sad, po meni to nije običan AI, jer je to stvarno moje nekakvo iskustvo na temu, i vjerujem da će takvog sadržaja biti sve više jednom kad google krene kažnjavat sadržaj kreiran automatizmom, što mislim da neće biti problem otkriti.

opusteno, pravim i ja stranice 10 godina i rangiram ih na googleu … pitaj svakoga ko rangira da li je bilo teze rangirati sajt 2012. godine ili je danas teze … i kakvi su se sve spam clickbait naslovi rangirali 2012. godine :smiley:

bilo bi lijepo da podijelis detalje, gdje si naisao na netacne informacije, koja nisa, sta si kucao, na kojem jeziku? jesu li sajtovi sa netacnim informacijama bolje rangirani, da li se danas sajtovi sa netacnim informacijama bolje rangiraju nego prosle godine? kako prepoznajes AI clanke pa zakljucujes da oni doprinose sirenju laznih informacija?

do sada su indijci sastavljali clanke za affiliate sajtove, jesu li indijci navodili tacne informacije? jesu li se do pojave AI na googleu rangirali sajtovi gdje golim okom vidis da ga je indijac sklepao, poredao tabele, Table of Contents i redirecta na amazon linkove?

ako odgovorno tvrdis, imas odgovore na ova pitanja :smiley:

AI je ubrzao agregaciju sadrzaja i sajtovi brze nicu, vise ih je ali kvalitet sadrzaja je uvijek bio upitan

na googleu ce se bolje rangirati onaj sajt koji bolje prevari algoritam … kako ces ga prevariti - do tebe je + user experience

1 Like

Google ce pustiti da ovo ide kako ide, i kao i do sad traziti neke metode da nekom matricom provali sta je “pouzdan” content, onoliko koliko mu se isplati da bi se dalje drzao na vrhu.
Nece se moci kontrolisati sta ko pise (i nedobog da pocnu kontrolisati, eto diktature), pisace se sranja, poplava ima da bude. I nije samo Google u pitanju, postoji izraz “alternativne cinjenice”, udomacilo se vec stanje da laze oko nas ko sta stigne ida se istina relativizira.

Ovo nece rijesiti pravila bez razvoja svijesti covjeka. Nesto kao npr. sto se ne baca smece po ulici i sa terase u civilizovanim drustvima. Dotle treba doci, a dug je put…

2 Likeova

Gugl će reagovati na AI sadržaj i netačne navode kad ljudi počnu reagovat. Dal je fidbek direktno prijavljivanje plus loš UE ili nešta treće ne znam ali uglavnom se svodi na to da ljudi sami kontrolišu. Oni sami mehanizme druge ne mogu imat. Ko npr svi oni masovni spam sajtovi o kojim smo nekad i pričali su skoro svi popadali zbog prijava ljudi, a tek poneki i zbog lošeg UE, a ne zbog genijalnosti gugla. Sad npr guglaš neke proizvode koji nisu napravljeni u Kini i gugl izbacuje loše informacije, laže sa kineskim proizvodima, rangira amazon s kineskim proizvodima, još na produkt stranicama tih proizvoda piše lijepo made in China. Dakle veze s vezom, ni zrce puste logike, a kamoli da je gugl sposoban da zna istinu. I šta ih briga za to? Kolika je to grupa ljudi? Ako je golema grupa diće se buka ispraviće, ako je mala grupa ljudi kojima nešta smeta i tihi su, boli ih kita. Ima li bolje alternative? Jeste pretraživali na drugim tražilicama? Dakle samo ljudi sami sa fidbekom će moći rješavat problem netačnosti i AI. Ali moraće to biti velike grupe jer male grupe će bit ignorisane. Tipa prijave na youtube što idu. Mada i to rješenje je onako diskutabilno ali čini mi se guglu najbliže.

Ja mislim da od watermarka nema nista, a nema nista ni od dugorocnog uklanjanja AI sadrzaja.

Problem kod watermarka je sledeci. Ne postoji jedna kompanija koja gradi AI. Open AI ce mozda dodati watermark ali Antrhopic nece. Anthropic hoce ali Chinyeng Bao nece… nastavi niz… Trenutno postoji preko 100 LLM AI-a u razvoju i bice ih samo vise.

Sledeci problem je open source AI koji je vec na razini GPT 2.0. Za 10 godina svako ce od nas moci imati vlastiti AI kao sto imamo Wordpress instalaciju. S obzirom da je open source ni tu od watermarka nema nista.

Problem kod uklanjanja sadrzaja je nemogucnost da ustanovis pouzdano sta je AI sadrzaj. Povuces previsoko granicu mices i prave ljude i dobar content, prevuces prenisko granicu prolazi AI. Ta razlika izmedju AI sadrzaja i ljudskog sadrzaja ce biti sve tanja dok ne postane potpuno nevidljiva.

3 Likeova