Hollosi Information eXchange /HIX/
HIX WEBMESTER 1806
Copyright (C) HIX
2002-04-27
Új cikk beküldése (a cikk tartalma az író felelőssége)
Megrendelés Lemondás
1 koszonet (mind)  13 sor     (cikkei)
2 elso lepesek... (mind)  41 sor     (cikkei)
3 =?windows-1250?Q?URL_megad=E1s_flash5-ben?= (mind)  26 sor     (cikkei)
4 Re: a robotok ugyis jonnek maguktol... (mind)  73 sor     (cikkei)
5 Re: *** HIX WEBMESTER *** #1805 (mind)  73 sor     (cikkei)
6 Keresőmarketing gondolatok (mind)  86 sor     (cikkei)
7 perl - adatbazisbol torles (mind)  21 sor     (cikkei)

+ - koszonet (mind) VÁLASZ  Feladó: (cikkei)

Szervusztok!

Koszonom mindenkinek a valaszokat a keresorobotokrol. Latom, tobbfele modja
van a begyujtesnek, s ezt mi nem nagyon tudjuk iranyitani. Esetleg az erre
szakosodott cegek???
Tulajdonkeppen csak az elv erdekelt, tobbnyire ugyis regisztraltatom az
oldalakat.

Tenyleg mi a tapasztalatotok a tomeges regisztraltato programokkal? Melyik
megbizhato???

udv,
Baranyai Zsolt
+ - elso lepesek... (mind) VÁLASZ  Feladó: (cikkei)

Sziasztok!

Az utóbbi napokban erősen kezdett érdekelni a webszerkesztés, de most már
komolyabban, mint korábban. Többször volt rá példa, hogy pl beillesztettem
az oldalam aljára egy statisztikai számlálót (pl StatSector) és nem
értettem, hogy miért lesz még a kis ikon alatt is hivatkozás, miért lesz a
kép alatt lévő szöveg színe az alap színével megegyező stb. Sajnos a
forráskódról semmit sem tudtam, az Office Word 200-ben kreáltam a lapom.
Tudom, egy nagy rakás sz@rt sem ér, de akkor nem volt jobb. Most szereztem
egy free progit, melynek használatához nagyobb ismeretet kell szereznem a
forráskódokról, különben nem tudom használni. Ennek neve: 1st Page 2000.
Jónak találom a progit. Hogy mégis jobban el tudjak mélyülni a témában
kihoztam egy könyvet a suli könyvtárából (Füstös János: World Wide Web Internet
 bevezetés a hálózati
információszolgáltató rendszer tervezésébe és használatába).
Kérdésem lenne, ti mint a szakma nagyjai, mennyire ajánljátok ezt a könyvet?
1996-ban adták ki, azóta mennyit változott a HTML nyelv? Még csak az elején
járok (67.o), eddig minden ment IE alatt. Ezt találom eddig a
leghasználhatóbb könyvnek, ami a kezembe akadt. Tudtok ennél jobbat is?

Lenn mindjárt egy pár kérdésem is, melyekre nem találtam eddig utalást a
könyvben.
- <META NAME="keywords" VALUE="{{ide jönnének a kulcsszavak vesszővel}}">
  A kérdésem az lenne, hogy kellenek-e ezek a jelek bele:{{...}} ?
  Az itt megadott szavak között fog keresgélni a kereső?
-Hogyan tudok a Statusbar-ra szöveget vinni, esetleg futószöveget kreálni?
-Hogyan lehet átszínezni a görgetősávot?
-Van már 1-2 "<FORM>-os" példa is, és szerepel bennük egy <FORM
ACTION="Http://szamgep.hu/cgi-bin/elkuld"> sor. Mi ez a cgi-bin? Mi legyen a
szamgep.hu helyén? Ennek elkészítéséhez kell a HTML tudásnál több,
fordítóprogram és egyebek?

Előre is köszönöm mindenkinek és bocsi, ha nagyon alapot kérdeztem volna, de
mint már mondtam nem vagyok (még) otthon a témában és ki máshoz is
fordulhatnék, mint Hozzátok!

Üdv.: Proci

"A győztesek soha nem adják fel, akik feladják, soha nem győznek."
                 
                   http://www.proci.on.hu
+ - =?windows-1250?Q?URL_megad=E1s_flash5-ben?= (mind) VÁLASZ  Feladó: (cikkei)

Sziasztok!

Flashben járatos szakember véleményére és segítségére számítok:
Flash5-ben készítettem egy mozit, azonban az Object Actions ablakban hiába
adom meg a következő szintaxist,

abszolút hivatkozással

on (release) {
    getURL ("http://www.cin.hu/akcio/fokonyv_akcio.html", "_self");
}

VAGY relatív hivatkozással

on (release) {
    getURL ("../../akcio/fokonyv_akcio.html", "_self");
}

a html oldalba beillesztve eredményként azt kapom, hogy az adott oldal nem
létezik, nem elérhető.

Mi ennek az oka, hogyan lehet kiküszöbölni, esetleg kihagytam valamit?

Köszönettel: Balaton László
E-mail: 
Internet: http://kiskun.mcse.hu, http://www.cin.hu/
+ - Re: a robotok ugyis jonnek maguktol... (mind) VÁLASZ  Feladó: (cikkei)

Hi!

Miutan azt a mondatomat, hogy a robotok nem jonnek 
maguktol, tobben kifigasoltatok, ezert inkabb ugy 
fogalmazok, hogy a_robotok_nem_jonnek_maguktol.
Ez igy helyesebb:)

Az azt koveto mondatom, hogy fognak egy oldalt, 
leindexelik, aztan tovabblepnek az oldalon talalhato 
linkeken, az pont azt jelenti, ami masok szerint a "magatol
joves".

Nyilvanvalo, hogy ha belepnek egy nic- szeru oldalra, ami 
(szerintem sajnos) csurig van url-ekkel, akkor uccu neki, 
leindexelik mindazt, ami elerheto rola, en is latom, hogy a
szerverlogban maszkalnak olyan domainket lehivva, amelyeken
nincs semmi.

Viszont ha itt egybehangzoan megallapitjuk, hogy a 
robotok bizony maguktol jonnek, akkor majd a

http://subdomain.domain.hu illetve a
http://domain.hu/enoldalam

tipusu oldalak tulajdonosai nyugodtan ulnek a baberjaikon, 
es varnak iteletnapig, hogy azok a franya robotok, akik 
ugye "az egesz internetet pasztazzak", mikor jonnek mar 
errefele is. (mert ezt olvastak egy levlistan:)

Ha szerencsejuk van, akkor valaki majd feltesz egy linket, 
ami rajuk mutat, azt az oldalt amin a link van harom-negy-
hat-tiz-harminc honap mulva le/ujraindexeli egy-egy robot, 
berakja a cimjegyzekebe, aztan vegre leindexeli az 
oldalukat, ha sorra kerul.

Az ujraindexelesrol csak annyit, hogy lattam mar nemzetkozi 
keresoben ket eve megszunt oldalaimat talalatkent.

Ezen kivul a robotok nemigen kovetik a JavaScriptbol, 
Javabol,  Flashbol, formokbol meghivhato hivatkozasokat 
sem, pedig abbol is van boven.

Szal: az, hogy a robotok vegiglepnek minden html linken, 
amit talalnak nem egyenlo azzal, hogy maguktol jonnek, es 
mindent megtalalnak.

A telefonos hasonlatnal maradva, jo kozelitessel: 
Ha megvasarolod a Timbuktui telefonkonyvet, es a korzetben 
levo mobil szolgaltatok publikus telefonkonyveit, es abbol 
felhivsz mindenkit aki benne van, vajon biztosan felhivtad 
egyesz Timbuktut?

Nem. 

Kimaradnak azok akik nem szerepelnek a telefonkonyvekben, 
mert:
-adataik kezeleset titkosan kertek
-nem kertek adataik feltuteteset a telefonkonyvben
-a telefonkonyv kiadasa utan kaptak vonalat
-kozponti szamuk van, de van rajta ~100 melle'k
-mobiljuk van, de nem elofizeteses
-megvaltozott a szamuk
satobbi...

Szal, a lenyeg:
Nem celszeru arra varni, hogy az oldalt a robotok 
megtalaljak valami alapjan, mert ez vagy jelentos kesessel, 
vagy rosszabb esetben egyalatalan nem fog megtortenni.

Udv:
Bicsi

http://www.brigetio.hu/akciobolt
+ - Re: *** HIX WEBMESTER *** #1805 (mind) VÁLASZ  Feladó: (cikkei)

Hello,

Kersomarketinggel kapcsolatban, jomagam tobb mint 2 eve uzom, leginkabb 
kulfoldi ugyfelek reszere. Nem ordonggosseg, semmi nem kell hozza, nemi 
logikan, html ismereten es angol tudason kivul. Rengeteg doksit otletet, 
forumot lehet talani a neten.
Csak nehany:
www.serachenginewatch.com
www.webmasterworld.com
www.marketposition.com
A google talalatrendezo algoritmusaban az az erdekes, hogy  nem  csak azt nezi,
 
hogy az adott oldalon hanyszor szerepel a kulcsszo, milyen gyakran, mondatt 
vegen vagy eljen, stb hanem azt, hogy az adott oldalra hany link mutat? Azaz 
milyen a "linkelesi nepszerusege". Hogy a spiderek hanyfelekeppen tudjak 
megkozeliteni.
Az azonos betu + hattert ne hasznaljatok mert az enginek legtobbje bannol 
erte..sot!!!!
Szvsz a addig volt jo uzlet a keresomarketing amig nem voltak cpc enginek..
Azaz annyit fizet ahanyan rakkatintanak az elso helyezesre. Mostmar 
gyakorlatilag az osszes kereso arul talalatokat es az sokkal biztosabb mint 
megfizetni egy szakertot aki talan az elso 10-be hoz egy ceget.

Na csak ennyit akartam...

Horasz



Idézet HIX WEBMESTER >:

> =======================================================
> Felado :  [Hungary]
> Temakor: Re: Re: nyilo ablak   flame   weboldal reklamozasa ( 24 ( 30
> sor )
> Idopont: Thu Apr 25 18:23:32 CEST 2002 WEBMESTER #1805
> - - - - - - - - - - - - - - - - - - - - - - - - - - - -
> 
> >éppen erre valók azok a cégek, akik kifejezetten keresőmarketingre
> szakoso
> >dtak, ők a szakértelmükkel sokszor elérik, hogy az első
> 10-20-ba
> kerü
> >lj.
> 
> És az arcanian.com pont egy ilyen cég ugye ? :)
> Akkor egy nyílt kérdés : mennyibe kerül ?
> 
> >
> >A robots.txt pedig kicsit más célokra szolgál, kb. a robotok kizárására
> találtá
> >k ki.
> 
> :))))
> És a keresôrobot megelégszik azzal amit a robots.txt-ben talál ?
> Én ezt úgy gondolom, hogy nem. Van egy-két oldalam ahol disallow-al
> kizártam
> a
> keresô robotot aztán mégiscsak van találat ha egy-egy szóra rákeresek a
> keresôkben.
> Vagy rosszul csináltam ?
> Szerintem ez úgy van mint az embereknél megmondják ne lopj !
> aztán meg kell nézni a bünözési statisztikát  :)))
> Szóval a keresô robotokat is emberek csinálják....... és szerintem ha
> azt
> találja a robots fájlban,
> hogy disallow akkor azért is az mindent begyüjt, mert úgy gondolkodik,
> hogy
> ez titkos oldal
> és az ô keresôje attól lesz jobb, hogy ezt az oldalt is lehozza
> találatként.
> 
> zsolt
+ - Keresőmarketing gondolatok (mind) VÁLASZ  Feladó: (cikkei)

Tisztelt HIX Webmester Listások!

Az elmúlt egy-két napban igen sok kérdés merült fel a keresőmarketing területér
ől, amelyekre tudásunk szerint válaszolunk, hiszen ez keresőmarketingesként sza
kmai kötelességünk.

A Google keresőmotoron kívül többeket sem nagyon befolyásol mostanában a META K
EYWORDS tag-ben megadott kulcsszó felsorolás,  

- mint az korábban itt is elhangzott - éppen a visszaélések miatt.

A keresőmotorok nem csak nem szeretik, hanem kifejezetten tiltják, büntetik a t
úl kicsi méretű, illetve a háttérhez képest kis 

kontrasztú szövegek használatát.

A Google indexelése leginkább a vizsgált oldal internetes ismertségétől (link p
opularity) függ, éppen ezért vannak olyan 

oldalak, amelyeket akár naponta meglátogat robotjuk. Mivel ezeket nem lehet meg
vásárolni (lsd. későbbi kivétel, Overture), 

ezért ezek között igen sűrűn található amatőrök által fenntartott oldal is. Mi 
a GeForce 4 modellek lehetséges nevei kapcsán 

találtunk aznapi forrást is a Google által adott találati listában.

A keresőmotorok nagy valószínűséggel használják kiinduló pontként a NIC.hu-n ta
lálható domain listát csakúgy, mint az ingyenes 

tárhely szolgáltatók felhasználói listáját. De véletlenül egyetlen robot sem ak
ad rá a website-ra, csak akkor ha valamilyen 

módon tudomást szerez létezéséről.

A keresőmotorok közül sajnos csak a kisebbeknek van úgynevezett "voyeur" portja
, amelyen keresztül közvetlen információt 

szerezhetünk a legutolsó x darab keresésről, de szerencsére például a Google is
 üzemeltet nyilvános, statisztikai célú 

szolgáltatás <a href="http://www.google.com/press/zeitgeist.html"> Zeitgeist </
a> néven.

A komoly keresőmotorok találati listájában NEM lehet közvetlenül helyet vásárol
ni (vagy CSAK fizetéssel lehet bejutni, pl.: 

GoTo-Overture). A találati lista előtt vagy mellett jól elkülönölő részen megje
lenő pl: Google Adwords Select vagy Origo 

"partnerünk ajánlata" helyek azonban értékes marketingeszközök lehetnek.

Némi kritikára válaszolva, hogy vajon hozzáértők vagyunk-e? Nem tudjuk, döntsét
ek el Ti az Origó <a 

href="http://vizsla.origo.hu/katalogus?hol=1&q=keres%f5marketing"> "keresőmarke
ting" </a> szavára keresve.

A kulcsszavak, kifejezések alkalmazásával kapcsolatban egy intelem: ha túl sok 
(keyword spam), vagy túl kevés az oldalon 

taláható kulcsszavak sűrűsége, könnyen kieshettek a keresők találati listájából
. Az első esetben tiltás, büntetés jár a 

domain-nek, a második esetben egyszerűen nem találnak rátok. A kettő közötti ar
any középút megtalálása a keresőmarketing 

szakértők egyik legfőbb feladata.

Ismereteink szerint a keresők MINDIG figyelembe veszik a robots.txt tartalmát, 
ugyanis ha nem tennék, akkor két csapdába is 

belefuthatnának: az Internet közössége büntetné meg a keresőt a "figyelmetlensé
géért", másrész könnyen végtelen hurokba 

kerülhet a robot egy-egy ilyen "tévedés" miatt. Szívesen segítünk abban, hogy ö
sszeállítsunk egy megfelelő robots.txt-t.

Üdvözlettel:

Fazakas László
Négyesi Károly

Arcanian Consulting

(webes bekuldes, a bekuldo gepe: nilus-500.adsl.datanet.hu)
+ - perl - adatbazisbol torles (mind) VÁLASZ  Feladó: (cikkei)

Hali

Keresem a legegyszerubb megoldást
egy adott txt adatbázisból egy sor kitörlésére.
Jelenleg erre tellett:

open(F,"+<$filenev") or &fhiba("$filenev");flock(F,2);
    =<F>;seek(F,0,0);
    foreach ){
    if(/$adat/){print F"";}else{print F"$_"}}
    truncate(F,tell(F));flock(F,8);close(F);

Szeretném ezt úgy megoldani,
hogy ugyanazt a végeredményt kapjam és ne kelljen
tömb tipusba beolvasni az egész fájlt hanem közvetlenül
a fájlt olvasom, de ekkor a seek-el mindenféle
pozicionálási probléma elôjött.

Lehet ezt agyáltalán ettôl egyszerubben megoldani ?

zsolt

AGYKONTROLL ALLAT AUTO AZSIA BUDAPEST CODER DOSZ FELVIDEK FILM FILOZOFIA FORUM GURU HANG HIPHOP HIRDETES HIRMONDO HIXDVD HUDOM HUNGARY JATEK KEP KONYHA KONYV KORNYESZ KUKKER KULTURA LINUX MAGELLAN MAHAL MOBIL MOKA MOZAIK NARANCS NARANCS1 NY NYELV OTTHON OTTHONKA PARA RANDI REJTVENY SCM SPORT SZABAD SZALON TANC TIPP TUDOMANY UK UTAZAS UTLEVEL VITA WEBMESTER WINDOWS