FAQ |
Kalender |
![]() |
#1 | ||
|
|||
Medlem
|
Jag har gjort en dynamisk sitemap med curl. curl är nytt för mig så jag vet inte riktigt vad jag gör här men scriptet går väldigt långsamt. Är det någon som har någon ide varför?
$ch = curl_init(); curl_setopt($ch, CURLOPT_URL, $url); curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); $store = curl_exec ($ch); curl_close ($ch); |
||
![]() |
![]() |
![]() |
#2 | ||
|
|||
Supermoderator
|
Förmodar att du crawlar hela sajten och lägger in de sidor som hittas? Då tar det tid om du har många sidor och det är ganska onödigt i längden. Det är bättre att du kör bakvänt och plockar ut de sidor som finns med hjälp av databasen om du har en sådan och detta alternativ är möjligt.
__________________
Full-stack developer, free for smaller assignments Senast redigerad av tartareandesire den 2010-06-03 klockan 12:14 |
||
![]() |
![]() |
![]() |
#3 | |||
|
||||
Bara ett inlägg till!
|
Hur långsamt går det och hur många sidor har du?
|
|||
![]() |
![]() |
![]() |
#4 | ||
|
|||
Medlem
|
cirka 30 sekunder till 1 minut för 30 sidor. sidorna ligger i olika databaser och visa sider ligger inte alls i någon databas så curl vore den smidigaste lösningen om det inte tog så lång tid. det kan ju vara något annat också i scriptet som hänger sig men det käns som om curl är den troligaste anledningen. Jag får inga felmeddelanden eller något sådant.
Hur länge är spindeln villig och vänta på xml filen? Senast redigerad av Fia den 2010-06-03 klockan 12:37 |
||
![]() |
![]() |
![]() |
#5 | ||
|
|||
Medlem
|
ok jag gör nu så att php scriptet gör en xml fil så går den ju snabbt att hämta, men hur kör jag scriptet utan att visa sidan? Jag behöver att scriptet körs varje gång någon lägger upp ett nytt recept men jag vill ju inte att det ska ta lång tid att lägga upp sitt recept. ajax kanske?
Senast redigerad av Fia den 2010-06-03 klockan 13:07 |
||
![]() |
![]() |
![]() |
#6 | |||
|
||||
Mycket flitig postare
|
Nu vet jag inte vad curl gör men om du ska skapa en sitemap så räcker det fint med att göra en HEAD-request med HTTP för att se om sidan finns (så länge det inte finns någon anledning att hämta hela sidan, t.ex. för att hitta nya länkar).
|
|||
![]() |
![]() |
![]() |
#7 | |||
|
||||
Bara ett inlägg till!
|
Ett schemalagt jobb som går med jämna mellanrum kanske?
|
|||
![]() |
![]() |
![]() |
#8 | ||
|
|||
Medlem
|
schemalgt skulle funka men jag gav upp curl iden. Jag lärde mig i alla fall något även om det kan kännas som en bortslängd dag. Jag hårdkoda in de sidor som inte fans i db och hämta resten från db. det går i alla fall fort. Nu kom nästa problem den synliga sitemapen. hur ska man deala med att ha flera hundra sidor. Ingen vill väll se en sitemap med flera hundra länkar det blir ju oläsbart.
|
||
![]() |
![]() |
![]() |
#9 | |||
|
||||
Bara ett inlägg till!
|
En synlig sidkarta bör ju vara uppdelad i kategorier. Om du bygger en trädstruktur med nsätlade punktlistor (ul) kan du till exempel hacka ihop något med jQuery för att visa och dölja olika delar av trädet.
|
|||
![]() |
![]() |
![]() |
#10 | ||
|
|||
Medlem
|
Så typ öppningsbara menyer som visar sidorna under vissa kategorier endast om man klickar på dem. Det skulle kunna fungera. Google rekomenderar dock max hundra länkar på en sida. Men det tror jag jag struntar i.
Tack för all hjälp, nu ska jag gå ut för här skiner solen. |
||
![]() |
![]() |
Svara |
Ämnesverktyg | |
Visningsalternativ | |
|
|