مقالات

البيانات الضخمة – BIG Data

شارك هذا الموضوع:

#عربي – علاء بزور*

لا شك أن العالم في أيامنا هذه يشهد تسارعا مضطردا في جميع العلوم بلا استثناء و أصبحت هذه العلوم تعتمد في نسب تسارعها و انتاجيتها على البنى التحتية لتكنولوجيا المعلومات المستخدمة اذ انه ومنذ العام 2012 يتم انتاج 2.5 كوينتيليون بايت (2.5 x 1018 بايت) من البيانات يوميا وهو ما يشكل تحديا عالميا عبر استغلالها بالطريقة الامثل من خلال الهيكلة و التحليل لإنتاج معرفة انسانية جديدة.

لكن قبل الخوض في هذا الموضوع علينا ان نعرف الفرق بين البيانات والمعلومة والمعرفة، فالبيانات هي الصورة الاولية للمعلومات قبل عمليات الفرز والترتيب والمعالجة ولا يمكن الاستفاده منها بصورتها الأولية قبل المعالجة، وتتحول البيانات الى معلومات بعد معالجتها و تحليلهاو تفسيرها وعندها يمكن الاستفادة منها و اتخاذ القرارات بناء عليها وهذه القرارات وما ينتج عنها هي المعرفة المتكونة في مختلف المجالات.

ونتيجة للنمو الكبير في حجم البيانات برز مصطلح البيانات الضخمة – BIG Data والذي يعرف بحسب موسوعة “Wikipedia ” بانه عبارة عن مجموعة البيانات الضخمة جداً والمعقدة الى درجة أنه يُصبح من الصعب معالجتها باستخدام أداة واحدة من أدوات إدارة قواعد البيانات أو تطبيقات معالجة البيانات التقليدية، حيث تشمل التحديات جمع هذه البيانات والمدة اللازمة لذلك الى جانب تخزينها والبحث فيها ومشاركتها ونقلها وتحليلها.

أما مؤسسة ” Gartner ” البحثية فتعرف البيانات الضخمة على انها أصول معلومات كبيرة الحجم، عالية السرعة، و/أو عالية التنوع تتطلب أشكال جديدة من المعالجة لتعزيز وتحسين عملية صنع القرار والفهم العميق وتحسين العملية.

ويتوجب ان تتوفر في البيانات ثلاث خصائص ليطلق عليها اسم ” بيانات ضخمة” هي: الحجم وهو عدد التيرابايت من البيانات التي يتم اطلاقها يوميا، والتنوع وهو تنوع هذه البيانات ما بين مهيكلة وغير مهيكلة ( تشكل نسبة البيانات غير المهيكلة 80% من مجموع البيانات) واخيرا السرعة وتعني مدى سرعة تواتر اطلاق البيانات.

ومن هنا تأتي الحاجة لإيجاد طرق جديدة للتعامل مع هذا الكم الهائل من البيانات بما يتيح تحليل مجموعة واحدة كبيرة من البيانات ذات الصلة، بالمقارنة مع المجموعات المنفصلة الأصغر حجماً، وهو ما سيسهل ايجاد ارتباطات تكشف “الاتجاهات التجارية” وتحدد ظروف حركة تدفق البيانات والتوقعات المبينة عليها.وهذا ما سيساعد العلماء في العديد من المجالات، التي تتضمن الأرصاد الجوية(علم الطقس)وعلم الجينات، والمحاكاة الفيزيائيةالمعقدة والبحوث البيولوجية والبيئية،وكذلك في محركات بحث الانترنت.

ومن خلال دراسة الحجم الكبير للبيانات يمكن للشركات أن تفهم زبائنها بشكل أفضل ما سيمكنها بالتالى من زيادة الكفاءة ورفع نسب الربح وتقليل الفاقد، تخيل مثلاً البحث في بيانات مشتريات مليون شخص يتعاملون مع متجر ما، هذا البحث والتحليل في الكم الهائل من فواتير المشتريات وتكرار المشتريات و تنوعها، سيعطي معلومات مفيدة جداً للإدارة ومتخذي القرار.

غير ان المشكلة تكمن في ان غالبية تلك البيانات ليست مهيكلة، كتغريدات تويتر و الفيديوهات على يوتيوب و تحديثات الحالة على فيس بوك وغيرها، ما يعني أنه لا يمكن إستخدام الأدوات التقليلدية لإدارة قواعد البيانات وتحليلها مع هذه البيانات لأنها ببساطة ليست وفق الهيكل الذي تتعامل معه كجداول، وهنا تبرز الحاجة الملحة لايجاد وسائل تتيح الاستفادة من هذه البيانات الضخمة حيث تشير الدراسات من غارتنر الى ان هناك حوالي 15% فقط من الشركات تستفيد بشكل جيد من البيانات الضخمة وهو ما رفع فعالية اداء هذه الشركات بنسب تزيد على 20%.

والبيانات الضخمة عادة ما تتضمن مجموعات بيانات ذات أحجام تتخطى قدرات البرامج التي يشيع استخدامها للمعالجة والتحليل في غضون فترة زمنية مقبولة.

ومن الامثلة التي تساعدنا على فهم الموضوع أكثر :

– 70% من مستخدمي الفيسبوك – الذين يقدر عددهم بمئات الملايين – ناشطون ويتداولون اكثر من 10 مليار رسالة و حوالي 400 مليون صورة بشكل يومي،فيما يعالج الفيسبوك نحو 50 مليار صورة من قاعدة مستخدميعه.

– وفي 31 كانون الاول (ديسمبر) 2013 وصل عدد الرسائل عبر الواتسب الى 18 مليار رسالة في يوم واحد.

و مما قد يلاحظه الكثير من القراء كدليل على الاستفادة الكبيرة من التحليل للبيانات الضخمة هو ما يرونه في صفحتهم على الفيسبوك تحت مسمى ” Suggested Friends”” او الاصدقاء المقترحون ، فكثير منا يتفاجأ بصورة احد الاصدقاء من أيام الجامعه او احد المعارف القدامى ممن تواصل معهم يوما عبر الهاتف او الواتسب ضمن الاصدقاء المقترحين على فيسبوك، هذا نتيجة تحليل للبيانات الضخمة التي تجمعها التطبيقات المختلفة عن مستخدميها.
و قدرت شركة سيسكو أنه وبحلول عام 2015 فإن حركة الزيارات على الإنترنت بالشكل الإجمالي ستتجاوز 4.8 زيتابايت ( أي 4.8 مليار تيرا بايت ) سنوياً.

و تقدر أبحاث شركة إنتل أن حجم البيانات التي ولدها البشر منذ بداية التاريخ وحتى عام 2003 بلغ ما قدره 5 إكسابايت، لكن هذا الرقم تضاعف 500 مرة خلال عام 2012 ليصل إلى 2.7 زيتابايت، ويتوقع أن يتضاعف هذا الرقم أيضاً ثلاث مرات حتى عام 2015.

البيانات تنمو بشكل متسارع جدا و المعارف الانسانية ايضا تتوالد بكميات ضخمة تجعل الحياة في تسارع كبير جامح يفرض علينا في بلداننا العربية اهتماما أكثر و أكبر في هذه المجالات خصوصا ان كافة المبادرات العالمية للتطور في هذه المجالات تفتقر الى اي وجود عربي رغم المحتوى التاريخي و المعرفي الكبير الذي نمتلكه.

*مدير مكتب المشاريع في شركة ” ماتكو” لتقنية المعلومات – السعودية

مقالات ذات صلة

أترك رداً

زر الذهاب إلى الأعلى