Stel vragen met betrekking tot de Web Scraper Tool van GrabzIt. Zoals hoe de webschraper en API te gebruiken om gegevens uit webpagina's, afbeeldingen of PDF-documenten te extraheren.
Ik gebruik de code vergelijkbaar met https://grabz.it/api/aspnet/advanced/com-object/. De catch-handler onderschept wel de 404-fout met dit geretourneerde bericht: "U probeert een screenshot te maken van een URL die niet bestaat! Voer een URL in die zowel absoluut als openbaar is, bijvoorbeeld: http://www.example. com". Wanneer er echter een serverfout optreedt, gaat de code nog steeds door en is de vastgelegde afbeelding van een webpagina met een serverfout. Is er een manier voor URLToImage om deze fouten ook te markeren?
Dit bericht "U probeert een screenshot te maken van een URL die niet bestaat! Voer een URL in die zowel absoluut als openbaar is, bijvoorbeeld: http://www.example.com" is geen 404-fout. Dit gebeurt bij ongeldige URL-formaten en als het domein niet bestaat.
Zolang aan deze twee criteria wordt voldaan, leggen we vast wat er wordt gevonden.