Voor een nieuwe site haal ik info op uit een externe database (eigendom, geen hack). Er wordt met behulp van door de beheerder in te geven wisselende parameters een url gevormd welke een xml-feed terug geeft. Het xml-resultaat wordt gethemed in een blok weergegeven. Elk blok heeft zijn eigen parameters. En dit alles in een eigen module.
Nu was er vandaag een probleem met die externe database, waardoor de website niet geladen werd. De gevormde url gaf een time-out. Gelukkig nog in ontwikkelomgeving.
Mijn vraag nu: hoe kan ik voorkomen dat bij het ontbreken van de externe verbinding/inhoud de website stopt? Een timeout controle, of een ping, of iets anders?
Alvast bedankt voor het meedenken.
Datum van inzending:
woensdag 28 september 2011 - 16:04
Heb je cURL al eens bekeken?
http://wiki.dreamhost.com/index.php/CURL
http://www.php.net/manual/en/ref.curl.php,
er zijn hieromtrent veel tutorials te vinden.
Wel moet deze module geactiveerd zijn bij je hosting firma. Check phpinfo() eens.
(Idealiter is natuurlijk zelf voor je hosting zorgen want dan kan je doen wat je wilt... Een echte aanrader zijn de rootservers bij www.hetzner.de (meer dan een EQ4 moet je niet hebben)... maar ja dat is een heel ander verhaal)
Ik was gestart met cURL. Dat werkt wel op de webserver, maar in eerste instantie niet lekker in WAMP. Ik gebruik nu de xml functies van php. Ik zal eens kijken. Klant doet eigen hosting, dus die controle is er.
-----
Met vriendelijke groet,
Hans Kuiters
BE-WEB
Heb inmiddels via de .org site het advies gekregen om met caching te werken. Sla nu de content op in een eigen tabel, welke met cron gerefreshed wordt.
-----
Met vriendelijke groet,
Hans Kuiters
BE-WEB
He ja..., dat is een mooie oplossing !