كيف يمكن أن تكون خدمات اكتشاف البوت المضمنة جزءًا من المشكلة.

غالبًا ما يتفاجأ عملاؤنا جدًا عندما نخبرهم أننا لا نجلس في وضع مضمّن ولا نطلب تحميل JavaScript على كل صفحة. لا يمكنهم فهم كيف يمكننا توفير الحماية دون الجلوس في الطابور. تسمح لنا هندستنا بالعمل في طبقة WAF - داخل WAF/CDN الحالي الخاص بك حتى نتمكن من توجيه ذكاء شبكتنا إلى حيث تحتاج إليه - على حافة الشبكة، لمنع الروبوتات من الوصول إلى موقع الويب الخاص بك في المقام الأول.

هذه ليست الطريقة العادية للقيام بذلك، وعادة ما لا يكون العملاء خارج الشركة على علم بهذا النهج.

عادةً ما تتوافق خدمات اكتشاف الروبوتات التقليدية بين عملائك وخدمة الويب. إنها تعمل تمامًا مثل حزمة مكافحة الفيروسات التي تراقب كل التفاعلات بين طبقة التطبيقات ونظام التشغيل بحثًا عن النشاط المخادع. بدلاً من مراقبة التطبيقات، يقومون بمراقبة حركة مرور الويب الواردة، عادةً باستخدام بصمة JavaScript لمراقبة كل طلب HTTP.

تمامًا مثل برنامج مكافحة الفيروسات، يمكن أن يتسبب ذلك في تأخيرات محبطة وإبطاء النظام للزائرين وحتى تعطل النظام. كانت هذه هي المقايضة الأساسية - بين مزايا الحماية الإضافية والأمان، مقابل التباطؤ في أوقات استجابة النظام الإجمالية.

المشكلة في هذا النهج ذات شقين؛ أولاً أن برنامج اكتشاف الروبوت يضيف نقطة فشل أمنية أخرى وثانيًا، يمكنه إبطاء سرعة موقع الويب الخاص بالعميل، حيث يقوم اكتشاف الروبوت بالتحقق من بصمات الأصابع.

تم تصميم VerifiedVisitors لتجنب هذه المخاطر، وهو لا يتماشى مع الأجهزة ولا يتطلب تثبيت أجهزة مخصصة أو JavaScript على كل صفحة من صفحات موقع الويب. بدلاً من ذلك، تقوم VerifiedVisitors بجميع عمليات المعالجة خارج موقع الويب الخاص بالعميل، باستخدام البنية التحتية السحابية الخاصة بنا. هذا يعني أنه لا يضيف أي نقطة فشل إضافية إلى موقع الويب الخاص بك، أو يتسبب في إبطاء أوقات استجابة موقع الويب الخاص بك.

بالنسبة للتطبيقات التي يكون فيها الأمان وسلامة النظام بشكل عام أمرًا بالغ الأهمية، أو حيث لا يكون وقت الاستجابة ممكنًا، على سبيل المثال لتطبيقات التجارة الإلكترونية، يعمل VerifiedVisitors على نطاق واسع لإدارة نشاط الروبوت الخاص بك دون مخاطر الأمان الإضافية.



تحقق من المزيد من المدونات

احصل على تحديثات على المحتوى