Kolreis administrera fleire enn 35 PQ-ar pr. veke?
Lagt inn: man 07 okt 2013 17:32
Er det nokon som har laga ein oppskrift på korleis ein kan administrera fleire enn 35 PQ-ar pr. veke i GSAK?
Dette spørsmålet er nok litt unøyaktig. Du administrerer ikke PQ'er i GSAK. Der bare laster du dem ned. Administrasjonen gjøres på Geocaching.com. Så spørsmålet i overskriften er mye bedre: "Korleis administrera fleire enn 35 PQ-ar pr. veke?"2v skrev:Er det nokon som har laga ein oppskrift på korleis ein kan administrera fleire enn 35 PQ-ar pr. veke i GSAK?
Ein bør definitivt køyre sjekk av "cache status" på databasen sin i ny og ne. Tar litt tid, men det er jo PCen som gjer jobben... Då slepp ein å leite etter arkiverte cachar.Team eika skrev:Her hos meg har dette blitt bare ball. Har mange cacher inne i gsak som aktive, de er i virkligheten arkivert.
Så vi går ute å leiter etter gammel historie. Synes at det er vanskelig å holde gsak up to date.
PQ-ane hentar ikkje inn arkiverte cachar.ArveAnd skrev:Ein bør definitivt køyre sjekk av "cache status" på databasen sin i ny og ne. Tar litt tid, men det er jo PCen som gjer jobben... Då slepp ein å leite etter arkiverte cachar.Team eika skrev:Her hos meg har dette blitt bare ball. Har mange cacher inne i gsak som aktive, de er i virkligheten arkivert.
Så vi går ute å leiter etter gammel historie. Synes at det er vanskelig å holde gsak up to date.
Det kan også være verdt å merke seg at det ikke er noen begrensning på "Status check", du kan sjekke så mange cacher du vil så ofte du vil.2v skrev:Eg har laga eit filter som hentar fram ikkje-arkiverte cachar som ikkje er oppdatert i det siste. Desse køyrer eg "Status check" på.
Her vil jeg gjerne få reklamere litt for min egen makro Refresh 6000 som ordner den saken så enkelt som bare det.Team eika skrev:Her hos meg har dette blitt bare ball. Har mange cacher inne i gsak som aktive, de er i virkligheten arkivert.
Så vi går ute å leiter etter gammel historie. Synes at det er vanskelig å holde gsak up to date.
Det er vel flere utfordringer med dette - for det første er det nesten ingen som kan bruke GGZ-filer, og for det andre er det et temmelig klart brudd på Groundspeaks lisensavtale. Det er kort sagt ikke lov å dele detaljer du får/finner hos Geocaching.com om cacher, med andre. PQ-er, andre GPX-er, varslingsmailer - alt rammes av denne avtalen.buzkaz skrev:Kanskje flere kunne gått sammen og laget en automatisk oppdatert GGZ med samtlige cacher i Norge, så slapp man dette styret helt og holdent?
Ja, det er det mange av oss som er enig med deg i. Det er ganske meningsløst at veldig mange skal tvinges til å laste ned akkurat de samme dataene, hver for oss. En mulig løsning kunne være at nasjonale geocachingnettsteder (som gcinfo) på en eller annen måte får anledning til å vedlikeholde en synkronisert database over det aktuelle landets cacher, hvorpå nettstedets brukere gjennom API-autentiseringen (som allerede finnes og sikrer at f.eks. bare Premium-medlemmer får tilgang til dette) får mulighet til å laste ned f.eks. fylkes-GPX-er som da er helt up-to-date på nedlastingstidspunktet. Dette er ikke spesielt vanskelig teknisk, det er mest viljen til Groundspeak det står på. Og nettstedets vilje og evne til å sørge for at nettstedet tåler den økte trafikken det vil medføre.buzkaz skrev:Hadde vel spart GS for en del av disse fryktelig tunge databasespørringene og komprimeringen av zip-filer også, så kanskje de etterhvert kunne tillate at man får lov å kjøre litt mer hyppige og omfattende spørringer..
Dette er jo på grensen til latterlig enkelt med API, og er noe vi kanskje kunne fått tilatelse til (basert på hva jeg ser andre API-partnere får tilatelse til).GadgetCats skrev:Ja, det er det mange av oss som er enig med deg i. Det er ganske meningsløst at veldig mange skal tvinges til å laste ned akkurat de samme dataene, hver for oss. En mulig løsning kunne være at nasjonale geocachingnettsteder (som gcinfo) på en eller annen måte får anledning til å vedlikeholde en synkronisert database over det aktuelle landets cacher, hvorpå nettstedets brukere gjennom API-autentiseringen (som allerede finnes og sikrer at f.eks. bare Premium-medlemmer får tilgang til dette) får mulighet til å laste ned f.eks. fylkes-GPX-er som da er helt up-to-date på nedlastingstidspunktet. Dette er ikke spesielt vanskelig teknisk, det er mest viljen til Groundspeak det står på. Og nettstedets vilje og evne til å sørge for at nettstedet tåler den økte trafikken det vil medføre.
Den første biten er grei - de som kjøper nye Garmin-GPSer nå får GGZ-støtte. De som har eldre modeller kan pakke ut GGZen og bruke innholdet direkte. (Det er bare GPX-filer pluss en index som er zippet sammen)GadgetCats skrev:Det er vel flere utfordringer med dette - for det første er det nesten ingen som kan bruke GGZ-filer, og for det andre er det et temmelig klart brudd på Groundspeaks lisensavtale. Det er kort sagt ikke lov å dele detaljer du får/finner hos Geocaching.com om cacher, med andre. PQ-er, andre GPX-er, varslingsmailer - alt rammes av denne avtalen.buzkaz skrev:Kanskje flere kunne gått sammen og laget en automatisk oppdatert GGZ med samtlige cacher i Norge, så slapp man dette styret helt og holdent?
Det hadde vært trivielt å publisere alle cachedataene for verden uten at det hadde medført utgifter for Groundspeak, men de hadde trolig mistet veldig mange premium medlemmer pga at pocket queries ville blitt unødvendig for de fleste. Så de ønsker nok til en viss grad å holde status quo. Samtidig er det slik at vi som er geocachere har opphavsretten på cachebeskrivelsene og loggene, og vi har ganske sterke muligheter til å bruke disse dataene som vi vil, samme hva avtalen med Groundspeak sier. Hva hvis en nasjonal geocaching-organisasjon påtok seg å publisere de cachene som hører til deres territorie selv, med begrunnelsen at dette er dataer av og for de lokale medlemmene? Hvis man genererer en slik fil på egen hånd vil det ikke være slik at man deler data som geocaching.com har eierskap til.Ja, det er det mange av oss som er enig med deg i. Det er ganske meningsløst at veldig mange skal tvinges til å laste ned akkurat de samme dataene, hver for oss. En mulig løsning kunne være at nasjonale geocachingnettsteder (som gcinfo) på en eller annen måte får anledning til å vedlikeholde en synkronisert database over det aktuelle landets cacher, hvorpå nettstedets brukere gjennom API-autentiseringen (som allerede finnes og sikrer at f.eks. bare Premium-medlemmer får tilgang til dette) får mulighet til å laste ned f.eks. fylkes-GPX-er som da er helt up-to-date på nedlastingstidspunktet. Dette er ikke spesielt vanskelig teknisk, det er mest viljen til Groundspeak det står på. Og nettstedets vilje og evne til å sørge for at nettstedet tåler den økte trafikken det vil medføre.
Jeg kan fort finne på å dra på spontantur, men jeg kunne selvfølgelig bare kjørt nye PQer rett før jeg bestemmer meg for å dra.Frodebs skrev:Mulig jeg tråkker på jordet nå men jeg forstår ikke helt problemet. Mulig jeg er av de som liker seg best hjemme men reiser dere virkelig rundt i alle fylkene i Norge i løpet av en uke? Det meste jeg selv har sett behov for av PQ har vært tre eller fire den gangen jeg kun hadde en omtrendlig rute jeg skulle bruke to uker på for å komme meg fra Oslo til Trondheim. Det er nok kommet en del PT etter det, men å ha behov for å laste ned et antall cacher som tilsvarer hele Norge ser jeg ikke så veldig mange har behov for.