- הוסף לסימניות
- #1
בעקבות שהאתר נטען לאט או נחסם והמשתמש מקבל דף שגיאה 500
חברת האחסון הוסגיטור שלחו מכתב שהם חסמו את האתר לכמה זמן בגלל רובוטים שסורקים את האתר בצורה מוגזמת.
הם שלחו את זה:
סורקים אינטרנט
סורק 29,079 / 62.73%: bing-bot
1,390 / שעה 03:00% סורק: Google-bot
דהיינו שבינג שולחים רובוט שמבקש לסרוק את האתר 29 אלף פעם
וגוגל שולחים רובוט שמבקש לסרוק 1390 פעם
וכל זה מעמיס על השרתים שלהם.
ולכן שלחו שיש צורך להוסיף לאתר קובץ robots.txt
עם ההסבר בקישור הזה
https://goo.gl/lyAF0w
שאלה בבקשה
א- לא הבנתי האם מטרת הקובץ הזה היא לחסום את האתר לגמרי לסורקים? אם לא אז מה כן?
ב- איך עושים קובץ כזה. מה כותבים?ו והיכן שמים אותו?
חברת האחסון הוסגיטור שלחו מכתב שהם חסמו את האתר לכמה זמן בגלל רובוטים שסורקים את האתר בצורה מוגזמת.
הם שלחו את זה:
סורקים אינטרנט
סורק 29,079 / 62.73%: bing-bot
1,390 / שעה 03:00% סורק: Google-bot
דהיינו שבינג שולחים רובוט שמבקש לסרוק את האתר 29 אלף פעם
וגוגל שולחים רובוט שמבקש לסרוק 1390 פעם
וכל זה מעמיס על השרתים שלהם.
ולכן שלחו שיש צורך להוסיף לאתר קובץ robots.txt
עם ההסבר בקישור הזה
https://goo.gl/lyAF0w
שאלה בבקשה
א- לא הבנתי האם מטרת הקובץ הזה היא לחסום את האתר לגמרי לסורקים? אם לא אז מה כן?
ב- איך עושים קובץ כזה. מה כותבים?ו והיכן שמים אותו?
הנושאים החמים