Neurobayes قصيرة الأجل على منهجية التداول


6-دلبيغداتا (1).pdf - بيج داتا إن لوجيستيكش A دل. هذه هي نهاية المعاينة. اشترك للوصول إلى بقية المستند. معاينة النص غير المنسقة: بيانات كبيرة في مجال اللوجستيات منظور دل حول كيفية تجاوز الضجيج ديسمبر 2013 بويرد بي سولوتيونس أمب الابتكار: البحث تريند بابليشر دل حلول العملاء أمب الابتكار يمثله مارتن ويجنر نائب الرئيس حلول أمب الابتكار 53844 ترويسدورف، ألمانيا مدير المشروع الدكتور ماركوس ككيلهاوس حلول أمب الابتكار، دل إدارة المشاريع ومكتب التحرير كاترين زيلر حلول أمبير الابتكار، دي إتش إل بالتعاون مع: المؤلفين مارتن جيسك، موريتز غرنر، فرانك وي مقدمة يتم إجراء البيانات الكبيرة والخدمات اللوجستية لبعضها البعض، واليوم صناعة الخدمات اللوجستية هو وضع نفسه لوضع هذه الثروة من المعلومات لاستخدام أفضل. وقد تم بالفعل تسليط الضوء على إمكانات البيانات الكبيرة في صناعة الخدمات اللوجستية في رادار النقل والإمداد دل المشهود. هذه الدراسة الشاملة هي وثيقة حيوية، حية تهدف إلى مساعدة المنظمات على استنباط استراتيجيات جديدة وتطوير مشاريع أكثر قوة والابتكارات. البيانات الكبيرة لديها الكثير لتقديم عالم الخدمات اللوجستية. ويمكن لتحليلات البيانات المتطورة أن تعزز هذا القطاع المجزأ تقليديا، وهذه القدرات الجديدة تضع مقدمي الخدمات اللوجستية في موقع القطب كمحركات بحث في العالم المادي. وقد تم تطويرها بشكل مشترك مع T - أنظمة والخبراء من ديتيكون للاستشارات. وقد جمع فريق البحث خبرة عالمية المستوى من كل من المجال اللوجستي ومجال إدارة المعلومات. H أو يمكن أن ننتقل من بئر عميقة من البيانات إلى استغلال عميق نأمل أن البيانات الكبيرة في مجال النقل والإمداد يوفر لك بعض وجهات نظر وأفكار جديدة قوية. شكرا لكم لاختيارهم الانضمام إلينا في هذه الرحلة البيانات الكبيرة معا يمكننا جميعا الاستفادة من نموذج جديد للتعاون والتعاون في صناعة الخدمات اللوجستية. يمكن أن نستخدم المعلومات لتحسين الكفاءة التشغيلية وتجربة العملاء، وخلق نماذج عمل جديدة مفيدة لديك بصدق، لشحذ التركيز، وتقرير الاتجاه الذي تقرأ الآن يسأل الرئيسية أسئلة البيانات الكبيرة: البيانات الكبيرة هو أصل غير مستغلة نسبيا أن يمكن للشركات استغلال بمجرد اعتماد التحول من عقلية وتطبيق تقنيات الحفر المناسبة. كما يذهب إلى أبعد من الكلمات الطنانة لتقديم حالات الاستخدام في العالم الحقيقي، وكشف ما يحدث الآن، وما الذي يحتمل أن يحدث في المستقبل. يبدأ هذا التقرير مع مقدمة لمفهوم ومعنى البيانات الكبيرة، ويقدم أمثلة مستمدة من العديد من الصناعات المختلفة، ومن ثم يعرض حالات استخدام الخدمات اللوجستية. مارتن ويجنر د. ماركوس ككيلهاوس 1 2 قائمة المحتويات مقدمة. 1 1 فهم البيانات الضخمة. 3 2 بيست داتا بيست براكتيس عبر الصناعات. 6 2.1 الكفاءة التشغيلية. 7 2.2 تجربة العملاء. 10 2.3 نماذج الأعمال الجديدة. 13 3 البيانات الكبيرة في مجال الخدمات اللوجستية. 15 3.1 اللوجستيات كعمل تجاري يحركه البيانات. 15 3.2 حالات الاستخدام الكفاءة التشغيلية. 18 3.3 حالات الاستخدام تجربة العملاء. 22 3.4 حالات الاستخدام نماذج الأعمال الجديدة. 25 3.5 عوامل النجاح لتنفيذ تحليلات البيانات الضخمة. 27 أوتلوك. 29 فهم البيانات الضخمة 1 فهم البيانات الضخمة يوفر النجاح المستدام لمكاتب الطاقة مثل الأمازون وجوجل والفيسبوك و إيباي دليلا على عامل إنتاج رابع في عالم اليوم المتصل بالإنترنت. وإلى جانب الموارد واليد العاملة ورأس المال، لا شك في أن المعلومات أصبحت ضرورية في الكون 1، وذلك بفضل نمو وسائل الإعلام الاجتماعية، والوصول إلى الشبكة في كل مكان، والعدد المتزايد باطراد من الأجهزة المتصلة الذكية. ويتوسع الكون الرقمي اليوم بمعدل يضاعف حجم البيانات كل سنتين (انظر الشكل 1). عنصر التمايز التنافسي. وتبذل الشركات في كل قطاع جهودا من أجل التجارة بشعور الأمعاء للحصول على إحصاءات دقيقة تستند إلى البيانات لتحقيق فعالية اتخاذ القرارات التجارية. بغض النظر عن المسألة التي تقرر حجم المبيعات المتوقعة، تفضيلات المنتج العملاء، جداول العمل الأمثل هو البيانات التي لديها الآن القدرة على مساعدة الشركات على النجاح. مثل السعي للحصول على النفط، مع البيانات الكبيرة فإنه يأخذ الحفر المثقف للكشف عن بئر من المعلومات القيمة. لماذا هو البحث عن معلومات ذات معنى معقدة جدا لأنه بسبب النمو الهائل للبيانات المتاحة داخل الشركات وعلى شبكة الإنترنت العامة. وفي عام 2008، تجاوز عدد قطع المعلومات الرقمية المتاحة عدد النجوم بالإضافة إلى هذا النمو الهائل في الحجم، تغيرت خصائص أخرى للبيانات بشكل كبير. أولا، البيانات تتدفق في. نشر واسع من الأجهزة المتصلة مثل السيارات والهواتف الذكية، رفيد القراء، وكاميرات الويب، وشبكات الاستشعار يضيف عددا كبيرا من مصادر البيانات مستقلة. أجهزة مثل هذه تولد باستمرار تيارات البيانات دون تدخل بشري، وزيادة سرعة تجميع البيانات ومعالجتها. ثانيا، البيانات متنوعة للغاية. تنبع الغالبية العظمى من البيانات التي تم إنشاؤها حديثا من صور الكاميرا والفيديو ولقطات المراقبة ومدونات المدونات ومناقشات المنتدى وكتالوجات التجارة الإلكترونية. وتساهم جميع مصادر البيانات هذه غير المنظمة في تنوع كبير في أنواع البيانات. 40.000 30.000 (إكسابايتس) 20.000 10.000 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 الشكل 1: نمو البيانات الأسي بين عامي 2010 و 2020 المصدر: دراسة الكون الرقمي الرقمية التابعة للوكالة الدولية للطاقة الذرية، برعاية إمك، ديسمبر 2012 الكون الرقمي المتنوع والمتفجر، إدك ، 2008 1 الكون الرقمي في عام 2020: بيانات كبيرة، وظلال رقمية أكبر، وأكبر نمو في الشرق الأقصى، إدك، برعاية إمك، ديسمبر 2012 2 3 4 فهم البيانات الكبيرة كان على تيليفونيكا الإجابة على الرحلة إلى إطلاق سمارت في نهاية المطاف خدمة الخطوات هي: ما هي القيمة الإضافية التي تحملها البيانات الحالية وكيف يمكننا الاستفادة منها في حين أن المستهلكين على دراية باتخاذ قرارات مدفوعة بالمعلومات اليومية، مثل المشتريات أو تخطيط الطريق أو إيجاد مكان لتناول الطعام، فإن الشركات متخلفة . لاستغلال الأصول المعلوماتية، والشركات لديها قبل كل شيء تغيير موقفهم حول كيفية استخدام البيانات. وفي الماضي، استخدمت تحليلات البيانات لتأكيد القرارات التي اتخذت بالفعل. ما هو مطلوب هو تغيير ثقافي. يجب على الشركات الانتقال نحو أسلوب تطلعي لتحليل البيانات التي تولد رؤية جديدة وإجابات أفضل. هذا التحول في التفكير أيضا ينطوي على نوعية جديدة من التجريب والتعاون والشفافية في جميع أنحاء الشركة. حجم والسرعة، ومتنوعة (3Vs) هي هذه البيانات الكبيرة في الأدب، وقد تم مناقشة 3V على نطاق واسع وخصائص تحليلات البيانات الكبيرة. ولكن هناك ما هو أكثر بكثير للنظر فيما إذا كانت الشركات ترغب في الاستفادة من المعلومات كعامل إنتاج وتعزيز موقفها التنافسي. ما هو مطلوب هو التحول في عقلية وتطبيق تقنيات الحفر الصحيحة. أن تصبح الأعمال التجارية يحركها المعلومات عندما بدأت شركة الاتصالات العالمية تيليفونيكا لاستكشاف نماذج الأعمال القائمة على المعلومات، وكانت الشركة قادرة بالفعل على معالجة مئات الملايين من سجلات البيانات من شبكة للهاتف المحمول كل يوم من أجل توجيه والفاتورة المكالمات الهاتفية وخدمات البيانات . وهكذا، لم يكن التعامل مع حجم البيانات الضخمة بسرعة عالية هو القضية الرئيسية. بدلا من ذلك، السؤال الرئيسي جنبا إلى جنب مع هذا التحول، شرط أساسي آخر ليصبح الأعمال التي يحركها المعلومات هو إنشاء مجموعة محددة من مهارات علوم البيانات. وهذا يشمل إتقان كل من مجموعة واسعة من الإجراءات التحليلية ولها فهم شامل للأعمال التجارية. ويجب على الشركات اتخاذ نهج تكنولوجية جديدة لاستكشاف المعلومات في ترتيب أعلى من التفصيل والسرعة. والنماذج التخريبية لمعالجة البيانات مثل قواعد البيانات في الذاكرة ونماذج الحوسبة المتسقة في نهاية المطاف تعد بتحليل مشاكل تحليل البيانات على نطاق واسع بتكلفة مجدية اقتصاديا. كل شركة تمتلك بالفعل الكثير من المعلومات. ولكن يجب أن يتم صقل معظم البيانات الخاصة بهم فقط ثم يمكن أن تتحول إلى قيمة الأعمال. مع تحليلات البيانات الكبيرة، يمكن للشركات تحقيق الموقف، المهارات، والتكنولوجيا المطلوبة لتصبح مصفاة البيانات وخلق قيمة إضافية من أصول المعلومات الخاصة بهم. فهم البيانات الكبيرة اللوجستية والبيانات الكبيرة هي مباراة مثالية قطاع الخدمات اللوجستية هو في وضع مثالي للاستفادة من التطورات التكنولوجية والمنهجية للبيانات الكبيرة. وهناك إشارة قوية إلى أن إتقان البيانات كان دائما مفتاح الانضباط هو أن الخدمات اللوجستية في جذورها القديمة اليونانية تعني العمليات الحسابية. 3 يقوم مزودو الخدمات اللوجستية اليوم بإدارة تدفق ضخم من السلع وفي الوقت نفسه إنشاء مجموعات بيانات واسعة. وبالنسبة لملايين الشحنات كل يوم، والمنشأ والمقصد، يتم تعقب كل من الحجم والوزن والمحتوى والموقع عبر شبكات التوصيل العالمية. ولكن هل تتبع هذه البيانات استغلالا كاملا القيمة ربما لا. على الأرجح هناك إمكانات ضخمة غير مستغلة لتحسين الكفاءة التشغيلية وتجربة العملاء، وخلق نماذج تجارية جديدة مفيدة. ولننظر، على سبيل المثال، في فوائد دمج تدفقات بيانات سلسلة الإمداد من موردي الخدمات اللوجستية المتعددة وهذا يمكن أن يزيل التجزئة الحالية للسوق، مما يتيح التعاون والخدمات الجديدة القوية. يدرك العديد من مقدمي الخدمات أن البيانات الكبيرة هي اتجاه غامشانجينغ لصناعة الخدمات اللوجستية. وفي دراسة حديثة عن اتجاهات سلسلة اإلمداد، ذكر 60 في المائة من المجيبين أنهم يخططون لالستثمار في تحليلات البيانات الضخمة خالل السنوات الخمس القادمة 4) انظر الشكل 2 أدناه (. ومع ذلك، يبدأ السعي للحصول على ميزة تنافسية مع تحديد حالات استخدام البيانات الكبيرة القوية. في هذه الورقة، ننظر أولا إلى المنظمات التي نشرت بنجاح تحليلات البيانات الكبيرة في سياق الصناعات الخاصة بها. ثم نقدم عددا من حالات الاستخدام الخاصة بالقطاع اللوجستي. الشبكات الاجتماعية (داخليا، B2B) منصات تحليلات الأعمال كخدمة اليوم خمس سنوات شبكة إعادة تصميم البرمجيات أنظمة إدارة دورة حياة المنتج 0 10 20 30 40 50 60 70 الشكل 2: مجالات الاستثمار الحالية والمخطط لها لتكنولوجيات البيانات الكبيرة. المصدر: الاتجاهات والاستراتيجيات في مجال اللوجستيات وإدارة سلسلة التوريد، ص. 51، بفل إنترناشونال، 2013 التعريف والتطوير، لوجيستيك بادن-ورتمبرغ، cf. لوجيستيك-bw. deDefinition.411M52087573ab0.0.html 3 الاتجاهات والاستراتيجيات في مجال اللوجستيات وإدارة سلسلة التوريد، بفل إنترناشونال، 2013 4 5 6 أفضل الممارسات في مجال البيانات الكبيرة عبر الصناعات 2 البيانات الكبيرة أفضل الممارسات عبر الصناعات الاستفادة من قيمة أصول المعلومات وهو هدف استراتيجي جديد لمعظم المؤسسات والمنظمات. وبصرف النظر عن محطات الإنترنت التي أنشأت بنجاح نماذج الأعمال القائمة على المعلومات، والشركات في قطاعات أخرى هي عادة في المراحل الأولى من استكشاف كيفية الاستفادة من كومة متزايدة من البيانات، ووضع هذه البيانات إلى الاستخدام الجيد. ووفقا لأبحاث حديثة (5)، فإن 14 شركة أوروبية فقط تعالج بالفعل تحليلات البيانات الضخمة كجزء من تخطيطها الاستراتيجي (انظر الشكل 3). ومع ذلك فإن نصف هذه الشركات تقريبا يتوقعون نمو البيانات السنوية في تنظيمهم أكثر من 25. الأولى والأكثر وضوحا هو الكفاءة التشغيلية. في هذه الحالة، يتم استخدام البيانات لاتخاذ قرارات أفضل، لتحسين استهلاك الموارد، وتحسين جودة العملية والأداء. ما توفره معالجة البيانات الآلية دائما، ولكن مع مجموعة محسنة من القدرات. البعد الثاني هو تجربة العملاء الأهداف النموذجية هي زيادة ولاء العملاء، أداء دقيق تجزئة العملاء، وتحسين خدمة العملاء. بما في ذلك موارد البيانات الضخمة من الإنترنت العامة، البيانات الكبيرة يدفع تقنيات كرم إلى المرحلة التطورية القادمة. كما أنها تمكن نماذج الأعمال الجديدة لتكملة تدفقات الإيرادات من المنتجات الحالية، وخلق إيرادات إضافية من منتجات جديدة تماما (البيانات). قيمة البيانات الكبيرة الأبعاد عندما تعتمد الشركات البيانات الضخمة كجزء من استراتيجية أعمالها، فإن السؤال الأول الذي يطرح على السطح هو عادة ما هو نوع القيمة التي تدفعها البيانات الكبيرة هل ستساهم في تحقيق أعلى أو أسفل، أو سيكون هناك سائق غير مالي من وجهة نظر قيمة، تطبيق تحليلات البيانات الكبيرة تقع في واحدة من ثلاثة أبعاد (انظر الشكل 4). لكل من هذه الأبعاد قيمة البيانات الكبيرة، وهناك أعداد متزايدة من التطبيقات مقنعة. وتظهر هذه الإمكانيات التجارية لتحقيق الدخل من المعلومات عبر مجموعة واسعة من الأسواق الرأسية. في الأقسام التالية، نقدم العديد من حالات الاستخدام لتوضيح كيفية استغلال المشغلين في وقت مبكر لمصادر البيانات بوسائل مبتكرة، وبالتالي خلق قيمة إضافية كبيرة. هل حددت شركتك إستراتيجية بيانات كبيرة هل حددت شركتك استراتيجية البيانات الضخمة رقم 63 23 المخطط لها نعم 14 الشكل 3: البيانات الضخمة كهدف استراتيجي في الشركات الأوروبية إحصائيات من دراسة بارك (N 273) المصدر: مسح البيانات الضخم أوروبا، بارك ، شباط / فبراير 2013، ص 17، مسح البيانات الضخمة أوروبا، معهد بارك، شباط / فبراير 2013 5 أفضل الممارسات في مجال البيانات الضخمة عبر الصناعات الكفاءة التشغيلية التشغيلية تجربة العملاء للعميل استخدم البيانات من أجل: استخدام البيانات الاستغلال: استغلال بيانات البيانات من أجل: زيادة العملاء زيادة العملاء لويالتي أويالتي والاحتفاظ الاحتفاظ أداء دقيق العملاء تجزئة كونسومبريسيس واستهداف تجزئة والاستهداف تحسين العملاء تحسين التفاعل التفاعلي العملاء والخدمة والخدمة الكفاءة زيادة مستوى زيادة مستوى الشفافية الشفافية تحسين الموارد تحسين كونسومبتيونرسورس تحسين عملية جودة استهلاك والأداء تحسين جودة العملية والأداء إكس نماذج جديدة نماذج الأعمال التجارية الجديدة الاستفادة من البيانات الوصفية للبيانات: من خلال: الاستفادة من توسيع مصادر الإيرادات توسيع مصادر الإيرادات من المنتجات الحالية المنتجات إنشاء إيرادات جديدة من العائدات إنشاء مجموعات جديدة من التدفقات الكاملة من منتجات منتجات (بيانات) جديدة بالكامل (البيانات) الشكل 4: أبعاد القيمة لحالات استخدام البيانات الضخمة المصدر: دبدهل ديتيكون 2.1 الكفاءة التشغيلية 2.1.1 الاستفادة من البيانات للتنبؤ بؤر الجريمة يمكن أن تكون مهمة تعقب المجرمين للمحافظة على السلامة العامة مملة في بعض الأحيان بالنسبة لإدارات شرطة العاصمة. مع العديد من المستودعات المعلومات صامت، وكثيرا ما ينطوي على إجراء إجراء اتصال يدوي من العديد من نقاط البيانات. وهذا يستغرق وقتا ويبطئ بشكل كبير من حل القضية. وعلاوة على ذلك، يتم نشر موارد الشرطة على الطرق بطريقة تفاعلية، مما يجعل من الصعب جدا القبض على المجرمين في الفعل. وفي معظم الحالات، لا يمكن حل هذه التحديات عن طريق زيادة عدد موظفي الشرطة، نظرا لأن الميزانيات الحكومية محدودة. وهناك سلطة واحدة تستفيد من مصادر بياناتها المختلفة وهي إدارة شرطة نيويورك (نيبد). من خلال التقاط وربط أجزاء من المعلومات ذات الصلة بالجريمة، فإنه يأمل في البقاء خطوة واحدة إلى الأمام من مرتكبي الجريمة .6 قبل فترة طويلة من صياغة مصطلح البيانات الكبيرة، بذلت شرطة نيويورك جهودا لتفكيك تقسيم مقصورة البيانات الخاصة بهم (على سبيل المثال البيانات من 911 المكالمات، تقارير التحقيق، وأكثر من ذلك). ومن وجهة نظر واحدة لكل المعلومات المتعلقة بجريمة بعينها، يحصل الموظفون على صورة أكثر تماسكا في الوقت الحقيقي لحالتهم. وقد أدى هذا التحول بشكل كبير إلى تحليل بأثر رجعي ويسمح للنيبد باتخاذ إجراءات في وقت مبكر لتعقب المجرمين الأفراد. ویعزى الانخفاض المطرد في معدلات جرائم العنف في نیویورك 7 إلی ھذا الترشید الأکثر فعالیة للعناصر الکثیرة من البیانات المطلوبة لأداء الأعمال القضائیة ولکن أیضا إلی تغییر جوھري في ممارسات الشرطة 8 من خلال إدخال تحلیل إحصائي ورسم خرائط جغرافیة لجرائم الجریمة ، وقد تمكنت نيبد من خلق صورة أكبر لتوجيه نشر الموارد ودوريات الممارسة. الآن يمكن للقسم التعرف على أنماط الجريمة باستخدام التحليل الحاسوبي، وهذا يسلم رؤى تمكين كل ضابط قائد لتحديد استباقي النقاط الساخنة من النشاط الإجرامي. تغير نيبد معادلة مكافحة الجريمة بالطريقة التي تستخدم المعلومات، عب cf. ووو-01.ibmsoftwaresuccesscssdb. nsfCSJSTS-6PFJAZ 6 إندكس الجرائم حسب المنطقة، شعبة ولاية نيويورك لخدمات العدالة الجنائية، أيار / مايو 2013، راجع. crijustice. ny. govcrimnetojsastats. htm 7 كومبستات و أورغانيزاتيونال تشانج إن لويل بوليس ديبارتمنت، ويليس إت. الله. مؤسسة الشرطة، 2004 cf. بوليسفونداتيون 8 كونتنتكومبستات-أند-أورغانيزاتيونال-تشانج-لويل-بوليس-ديبارتمنت 7 8 أفضل الممارسات البيانات أفضل عبر الصناعات هذا المنظور الاستباقي يضع نيبد في وضع يمكنها من استهداف فعال لتوزيع القوى العاملة والموارد. وبالاقتران مع التدابير الأخرى، ساهم التحليل المنهجي للمعلومات الموجودة في انخفاض معدل جرائم العنف باستمرار (انظر الشكل 5). وقد اعتمدت تقنية استخدام البيانات التاريخية لتحقيق التعرف على الأنماط، وبالتالي التنبؤ بقع الجريمة، مع مرور الوقت، من قبل عدد من البلديات في الولايات المتحدة الأمريكية. المزيد والمزيد من الإدارات الشرطة تقدم معلومات سجل الجريمة للجمهور، بدأت أطراف ثالثة أيضا إلى (انظر الشكل 6) .9 26.000 1.000 24.000 -3 900 22.000 800 20.000 700 18.000 -4 600 السرقة 16.000 500 14.000 400 12.000 300 10.000 2002 القتل 2004 2006 2008 2010 2012 الشكل 5: تطور جرائم العنف في مدينة نيويورك البيانات المأخوذة من جرائم الفهرسة المبلغ عنها للشرطة حسب المنطقة: مدينة نيويورك، 20032012، المصدر: شعبة ولاية نيويورك لخدمات العدالة الجنائية، crijustice. ny. govcrimnetojsastats. htm الشكل 6: محركات عامة كريميريبورتس قطة، cf. كريميريبورت سف. (أفضل) البيانات الكبيرة أفضل الممارسات عبر الصناعات 2.1.2 تخطيط التحول الأمثل في متاجر البيع بالتجزئة لمديري متجر التجزئة، والتحولات التخطيط لتلبية الطلب من العملاء مهمة حساسة. زيادة عدد الموظفين في المتجر يخلق نفقات لا لزوم لها ويقلل من ربحية الموقع. تشغيل المتجر مع انخفاض مستوى الموظفين يؤثر سلبا على رضا العملاء والموظفين. كلاهما سيئ للعمل. في الصيدليات دم، تم تنفيذ مهمة التخطيط التحول تاريخيا من قبل مدير متجر على أساس الاستقراء بسيطة والخبرة الشخصية. لأيام العمل العادية، كانت هذه العملية جيدة بما فيه الكفاية. ولكن مع عدد متزايد من الاستثناءات، أصبح غير مرض. النفقات العامة أو نقص الموظفين محدود أداء المتجر. لذا فقد قررت إدارة الهجرة مساعدة مديري المتاجر في التخطيط المسبق لموظفيها من خلال إيجاد طرق للتنبؤ بالطلب بشكل موثوق عند كل نقطة بيع بعينها (10). وكان النهج هو تنفيذ توقعات طويلة الأجل لعائدات المتاجر اليومية، مع مراعاة مجموعة واسعة من المعلمات الفردية والمحلية. وشملت بيانات المدخلات إلى خوارزمية جديدة بيانات الإيرادات التاريخية وساعات العمل وأوقات وصول السلع الجديدة من مراكز التوزيع. وعلاوة على ذلك، تم تناولها بيانات أخرى لتحقيق أعلى مستوى من الدقة. وشملت هذه البيانات الظروف المحلية مثل أيام السوق، والعطل في المواقع المجاورة، وتحويل الطرق، وفي بيانات توقعات الطقس في المستقبل (حيث تؤثر الأحوال الجوية تأثيرا كبيرا على سلوك المستهلك). وقامت إدارة الهجرة بتقييم خوارزميات تنبؤية مختلفة، والحل المختار يوفر الآن إسقاطات دقيقة أثبتت أنها دعم قوي لتخطيط التحول. استنادا إلى التنبؤ عالية الدقة من المبيعات اليومية لكل مخزن الفردية، يمكن للموظفين الآن إدخال تفضيلاتهم الشخصية في جدول التحول 4-8 أسابيع مقدما. وبمجرد الموافقة عليها، من غير المحتمل أن تتغير تحولاتها التي يمكن أن تعتمد على الخطة طويلة الأجل، والتغيير في اللحظة الأخيرة هو حدث استثنائي. وهذا يبين كيف أن تطبيق التحليلات التنبؤية في دم يزيد من الكفاءة التشغيلية في المتجر، ويسهم في الوقت نفسه في تحسين التوازن بين العمل والحياة لموظفي المخزن. بوسينيس إنتليجانس غايد 20122013، إسبورت، إيسي ميدين منشن، أور cf. 10 10 2 2 Q4 2007 10 أفضل ممارسات البيانات الكبيرة عبر الصناعات 2.2 تجربة العملاء 2.2.1 تحليل التأثير الاجتماعي للحفاظ على العملاء للحصول على نظرة ثاقبة رضا العملاء والطلب في المستقبل، تستخدم الشركات عددا من نماذج الأعمال المختلفة. النهج التقليدي هو إجراء أبحاث السوق على قاعدة العملاء، ولكن هذا يخلق نظرة عامة دون التركيز على احتياجات المستهلكين الفردية والسلوكيات. والمشكلة التي تواجه مقدمي خدمات الاتصالات السلكية واللاسلكية هي مشكلة زعزعة العملاء (فقدان العملاء على مدى فترة من الزمن). وللمساعدة في الحد من الازدواج، تقوم المنظمات عادة بتحليل أنماط استخدام المشتركين الفرديين وجودة الخدمة الخاصة بهم. كما يقدمون مكافآت محددة 11 لإبقاء بعض العملاء مخلصين، استنادا إلى معايير مثل إنفاق العملاء، والاستخدام، وطول الاشتراك. وفي الماضي، حققت جهود الاحتفاظ هذه استنادا إلى قيمة العملاء الفرديين بعض التحسن في الولاء (12)، إلا أن زعامة العملاء لا تزال تشكل مشكلة بالنسبة لمقدمي الخدمات (انظر الشكل 7). ومن أجل التنبؤ بشكل أفضل بسلوك العملاء، بدأت شركة T-موبيل أوسا بتضمين العلاقات الاجتماعية بين المشتركين في نموذج إدارة زبدها. 13 تستخدم المنظمة تقنية متعددة الرسوم البيانية، على غرار الأساليب المستخدمة إنشاء هذا المنظور الجديد تماما لعملائها مطلوب T - موبايل لإثراء تحليلها القديم من البيانات (التي اتخذت تاريخيا من أنظمة الفوترة وعناصر شبكة الاتصالات). وبالإضافة إلى ذلك، يتم الآن ابتلاع ما يقرب من بيتابيت واحد من البيانات الخام بما في ذلك المعلومات من النقر على شبكة الإنترنت والشبكات الاجتماعية للمساعدة في تعقب الآليات المتطورة وراء زبد العملاء. وقد دفع هذا النهج المبتكر للغاية قبالة ل T-موبيل. بعد الربع الأول فقط من استخدام نموذج الإدارة الجديد، فقد انخفضت معدلات زعزعة المنظمات بمقدار 50 مقارنة مع الربع نفسه من العام السابق. الدفع الآجل الدفع المسبق المخلوط الاتجاه الآجل الدفع المسبق الاتجاه المخلوط 6 5 معدل الدوران () في تحليل الشبكات الاجتماعية، لتحديد ما يسمى قادة القبائل. وهؤلاء هم الأشخاص الذين لديهم تأثير قوي في المجموعات الأكبر والمرتبطة. إذا تحول زعيم القبيلة إلى خدمة المنافسين، فمن المرجح أن عددا من أصدقائهم وأفراد أسرته أيضا التبديل هو مثل تأثير الدومينو. مع هذا التغيير في الطريقة التي يحسب بها قيمة العميل، فقد عززت تي موبايل قياسها ليشمل ليس فقط إنفاق العملاء مدى الحياة على الخدمات المتنقلة ولكن أيضا حجم شبكته الاجتماعية أو قبيلة (انظر الشكل 8). 4 3 2 1 0 الربع الثاني 2005 الربع الرابع 2005 الربع الثاني 2006 الدفع الآجل الدفع الرباعي الربع الرابع 2006 الربع الثاني 2007 الموفق الاتجاه الآجل الدفع الدفع المسبق الاتجاه المخلوط الربع الرابع 2007 الربع الثاني 2008 الشكل 8: تحديد المؤثرين في قاعدة مشتركي متنقل الدفع الآجل الدفع المسبق المرسل الاتجاه الآجل الدفع المسبق الدفع الشكل 7: الاتجاه المخلوط من معدلات زبد المشترك، من: موبايل زبد واستراتيجيات الولاء، إنفورما، ص. 24 تتبع ولاء العملاء، إنفورما، 2012 11 الربع الرابع 2006 12 2007 الربع الثاني 2007 الربع الأول 2008 الربع الثاني الولاء 2008 والاستراتيجيات، الطبعة الثانية، إنفورما، 2009 التحديات التي تواجهها شركة تي موبايل مع البيانات، بريت شيبارد، أوريلي ستراتا، 2011 cf. strurn. oreilly201108t-موبيل-تشالنجس-تشورن-with. html 13 Q2 2008 أفضل الممارسات في مجال البيانات الكبيرة عبر الصناعات 2.2.2 تجنب الخروج من ظروف المخزون لرضا العملاء هذه تجربة متكررة ومخيبة للآمال للمتسوقين: بمجرد أن يجدوا العنصر المثالي من الملابس، واكتشاف أن حجم ما يحتاجونه هو من المخزون. مع تزايد المنافسة في قطاع الغزل والنسيج والملابس، وتوافر الملابس الشعبية هي الآن محدودة عادة. ويرجع ذلك إلى توطيد العلامات التجارية ودورات المنتجات المتسارعة. وفي بعض الحالات، لا يوجد سوى ثلاثة أسابيع بين التصميم الأول للملابس والوصول إليها في المتجر ([14]). ويؤدي الإطلاق المتكرر للمجموعات الجديدة، مدفوعا بسلاسل منظمة عموديا، إلى إضعاف شراء المواد إلى دفعة واحدة. وهذا يشكل خطرا على سلاسل الملابس، مما يجعل من الأهم من أي وقت مضى أن نتوقع بدقة طلب المستهلكين على بند معين. وقد أصبحت القدرة على التنبؤ بشكل صحيح الطلب عاملا رئيسيا للأعمال مربحة. أدركت مجموعة متاجر أوتو غروب أن الطرق التقليدية للتنبؤ بالطلب على بنود الكتالوج عبر الإنترنت والبريد الإلكتروني كانت غير كافية في بيئة تنافسية بشكل متزايد. وبالنسبة ل 63 من البنود، تجاوز الانحراف (مقارنة بأحجام المبيعات الفعلية) حوالي 20،15. وأعربت المجموعة عن تقديرها لمخاطر الأعمال الناجمة عن الإفراط في الإنتاج والنقص. ومن شأن الإفراط في الإنتاج أن يؤثر على الربحية ويقفل رأس المال كثيرا. النقص من شأنه أن يزعج العملاء. ولتلبية طلب العمالء، ال سيما التوقعات العالية للمواطنين الرقميين عند إجراء عملية شراء عبر اإلنترنت، اتخذت مجموعة أوتو نهجا مبتكرا ومدمرا لتحسين قدرتها على التوريد) انظر الشكل 9 (. التناقض التنبؤ 63 الانحراف التنبؤ غ 20 1000 500 تردد المطلق التنبؤ الكلاسيكي تطوير مخاطر الترويج 100 20 0 20 التنبؤ الكلاسيكي بايس العصبية تطوير المخاطر المتراكمة 11 التنبؤ الانحراف غ 20 100 200 التنبؤ مع بايس العصبية الشكل 9: الانحراف النسبي للتشخيص من حجم المبيعات الفعلي، من: البيانات الكبيرة أمبير التحليلات التنبؤية دير نوتزن فون داتن فر برزيس برونوسن أوند إنتشيدونجن إن دير زوكونفت، أوتو غروب، مايكل سين كونفيرانس تالك بيج داتا أوروبا، زيوريخ، 28 أغسطس 2012 مكرت إن دير غلوبالن موديندوستري، باتريك أسبرز، يار بوك 20072008، معهد ماكس بلانك لدراسة المجتمعات 14 أوتو ريشنيت ميت كنستليشر إنتليجنز، ليبنزميتل زيتونغ، 21 أغسطس 2009 15 11 12 أفضل الممارسات في مجال البيانات الضخمة عبر الصناعات 70 63 60 50 40 30 20 11 10 0 توقعات الطلب التقليدية توقعات الطلب مع التحليلات التنبؤية الشكل 10: النسبة المئوية لبنود الكتالوج مع أرقام المبيعات الفعلية التي تنحرف عن أكثر من 20 من توقعات الطلب. المصدر: بيرفيكتس بيستاندسماناجيمنت دورش التحليلات التنبؤية، ماثياس ستبين، مجموعة أوتو، في المؤتمر اللوجستي الألماني 29، أكتوبر 2012 بعد تقييم سلسلة من الحلول لتوليد توقعات مستقرة من حجم المبيعات، نجحت مجموعة أوتو في نهاية المطاف من خلال تطبيق الطريقة التي نشأت في مجال الفيزياء عالية الطاقة. واستخدمت أداة تحليل متعددة المتغيرات تستخدم قدرات التعلم الذاتي من تقنيات الشبكات العصبية وتجمعها مع إحصاءات بايزي .16 وباستخدام أداة التحليلات هذه، أنشأت المجموعة محرك تنبؤ جديد تماما قامت بتدريب الأداة باستخدام بيانات تاريخية من 16 فصلا سابقا، ومدخلات مستمرة للأداة مع 300 مليون سجلات المعاملات في الأسبوع من الموسم الحالي. ويولد هذا النظام الجديد أكثر من مليار توقعات فردية في السنة، وقد حقق بالفعل نتائج مقنعة. ومع عدم وجود سوى 11 من بنود الكتالوج تفتقد توقعات المبيعات بأكثر من 20) انظر الشكل 10 (، أصبحت مجموعة أوتو قادرة على تلبية طلب العمالء اآلن .17 وفي الوقت نفسه، فإن هذا النهج التنبئي الجديد يخفض حصص األسهم، مما يؤدي إلى تحسين الربحية) وتوافر الأموال. راجع neurobayes. phi-t. deindex. phppublic-إنفورماتيون 16 تريفسيشير أبساتسبروجنوس ميت التحليلات التنبؤية، مايكل سين، مؤتمر نقاش حول البيانات الكبيرة أمب تحليلات كونغريس، كولونيا، 19 يونيو 2012 17 cf. youtubewatchvhAE2Mui5lRA بيست داتا بيست براكتيس عبر الصناعات 2.3 نماذج الأعمال الجديدة 2.3.1 تحليلات الحشود تقدم رؤى التجزئة والإعلانات لتوفير خدمات الصوت والبيانات المتنقلة الفعالة، يجب على مشغلي الشبكات التقاط مجموعة من البيانات باستمرار على كل مشترك. وبصرف النظر عن تسجيل استخدام الخدمات المتنقلة (لأغراض المحاسبة والفواتير)، يجب على المشغلين أيضا تسجيل كل موقع المشتركين بحيث يمكن توجيه المكالمات وتدفقات البيانات إلى برج الخلية التي يتم توصيل الهاتف المشترك. هذه هي الطريقة التي يقوم بها كل مشترك بإنشاء درب رقمي أثناء تحركه حول شبكة المزود. وفي معظم البلدان، هي مجرد مجموعة صغيرة من مشغلي الشبكات التي استحوذت على معظم السكان كزبائن تقدم مساراتهم الرقمية المشتركة لقاعدة المشتركين انعكاسا شاملا للمجتمع أو بشكل أدق لكيفية تحرك المجتمع. على سبيل المثال، من الممكن تقييم جاذبية شارع معين لفتح متجر جديد، استنادا إلى تحليل عالي الدقة لكيفية تحرك الناس والراحة في هذا المجال، والعثور على ساعات العمل من المرجح أن خلق أقصى الإقبال (انظر الشكل 11) . في سياق أكبر، من الممكن أيضا أن نرى تأثير الأحداث مثل الحملات التسويقية وفتح متجر منافس من خلال تحليل أي تغيير في أنماط الحركة. عندما يتم تضمين الانقسامات بين الجنسين والفئة العمرية في البيانات، ويتم تضمين مجموعات البيانات الجغرافية المحلية وأنشطة الشبكة الاجتماعية، فإن هذا التجزئة يضيف قيمة أكبر لتجار التجزئة والمعلنين. وفي الماضي، لم يكن باستطاعة المنظمات إلا أن تستخدم داخليا بيانات الموقع وبيانات الاستخدام من شبكات الجوال. وذلك بسبب قوانين الخصوصية التي تحد من استغلال المعلومات الفردية للمشترك. ولكن بمجرد تقسيم هوية المشترك من بيانات الحركة، لا تزال قيمة تجارية كبيرة في هذه البيانات الحشد المجهول، كما اكتشفت تيليفونيكا. مع إطلاق قسم الأعمال العالمي تيليفونيكا الرقمية، مشغل الشبكة يقود الآن الابتكار في الأعمال التجارية خارج وحدات الأعمال الأساسية والعلامات التجارية. وكجزء من تيليفونيكا ديجيتال، قامت مبادرة ديناميك إنزيتس بتسويق تحليل بيانات الحركة، مما خلق عائدات متزايدة من عمالء التجزئة والعقارات والترفيه ووسائط اإلعالم .18 وقد طورت شركات نقل أخرى عروض مماثلة، مثل خدمة فيريزونز بريسيسيون ماركيت إنزيتس. والمناطق الحضرية، وكثافة المسارات الرقمية عالية بما فيه الكفاية لربط السلوك الجماعي لحشد المشترك مع خصائص موقع معين أو منطقة معينة. الشكل 11: تحليل إقبال العملاء في موقع معين استنادا إلى بيانات المشتركين في الهاتف المحمول، من blog. telefonicapress-ريلاسيتيليفونيكا-ديناميك-إنزيتس-لونشس-سمارت-ستيبس-إن-ذي-أوك سف. dynamicinsights. telefonica 18 Cf. فيريزونتربريسيندوستريريتايلبريسيسيون-ماركيت-إنزيتس 19 13 14 أفضل ممارسات البيانات الضخمة عبر الصناعات 2.3.2 إنشاء منتجات تأمين جديدة من البيانات الجغرافية المحلية تعتبر حساسية المناخ سمة من سمات الصناعة الزراعية حيث تؤثر درجات الحرارة المحلية وساعات أشعة الشمس ومستويات هطول الأمطار تأثيرا مباشرا على محصول المحاصيل . ومع تزايد ظواهر الطقس القاسية بسبب الاحترار العالمي، أصبح تغير المناخ خطرا كبيرا على المزارعين (20). وللتخفيف من آثار نقص المحاصيل، يقوم المزارعون بوضع سياسات تأمين لتغطية خسائرهم المالية المحتملة. وتتعرض شركات التأمين بدورها لتحديات متزايدة على نحو لا يمكن التنبؤ به. فمن ناحية، لم تعد نماذج المخاطر التقليدية القائمة على البيانات التاريخية مناسبة لتوقع الخسارة المؤمن عليها في المستقبل (21). ومن ناحية أخرى، يجب أن تخضع المطالبات للمراقبة بدقة أكبر لأن الأضرار قد تتفاوت في منطقة متأثرة. وبالنسبة للمزارعين، يؤدي الجمع بين هذين الجانبين إلى ارتفاع معدلات التأمين وتباطؤ مدفوعات التعويض عن الأضرار. In the United States, most private insurance companies viewed crop production as too risky to insure without federal subsidies.22 In 2006, The Climate Corporation started out to create a new weather simulation model based on 2.5 million temperature and precipitation data points, combined with 150 million soil observations. The high resolution of its simulation grid allows the company to dynamically calculate the risk and pricing for weather insurance coverage on a per-field basis across the entire country (see Figure 12). As the tracking of local growing conditions and the calculation of crop shortfall are performed in real time, payouts to policy holders are executed automatically when bad weather conditions occur. This eliminates the need for sophisticated and time-consuming claims processes. Based on 10 trillion simulation data points23, The Climate Corporations new insurance business model is now successfully established. After only six years, the organizations insurance services have been approved across all 50 states in the U. S. Figure 12: Real-time tracking of weather conditions and yield impact per field screenshot taken from climateproductsclimate-apps Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation, Chapter 4.3.4, Intergovernmental Panel on Climate 20 Change (IPCC), 2012 cf. ipcc. chpdfspecial-reportssrexSREXFullReport. pdf Warming of the Oceans and Implications for the (Re-)Insurance Industry, The Geneva Association, June 2013 21 Weather Insurance Reinvented, Linda H. Smith, DTN The Progressive Farmer, November 2011 cf. dtnprogressivefarmer 22 About us, The Climate Corporation, cf. climatecompanyabout 23 Big Data in Logistics 3 BIG DATA IN LOGISTICS Companies are learning to turn large-scale quantities of data into competitive advantage. Their precise forecasting of market demand, radical customization of services, and entirely new business models demonstrate exploitation of their previously untapped data. As todays best practices touch many vertical markets, it is reasonable to predict that Big Data will also become a disruptive trend in the logistics industry. However, the application of Big Data analytics is not immediately obvious in this sector. The particularities of the logistics business must be thoroughly examined first in order to discover valuable use cases. 3.1 Logistics as a Data-driven Business A kick-start for discussion of how to apply Big Data is to look at creating and consuming information. In the logistics industry, Big Data analytics can provide competitive advantage because of five distinct properties. These five properties highlight where Big Data can be most effectively applied in the logistics industry. They provide a roadmap to the well of unique information assets owned by every logistics provider. In the following sections, we identify specific use cases that exploit the value of this information, and contribute to operational efficiency, a better customer experience, or the development of new business models. Optimization of service properties like delivery time, resource utilization, and geographical coverage is an inherent challenge of logistics 1. Optimization to the core Large-scale logistics operations require data to run efficiently. The earlier this information is available and the more precise the information is, the better the optimization results will become Advanced predictive techniques and real-time processing promise to provide a new quality in capacity forecast and resource control The delivery of tangible goods requires a direct customer interaction at pickup and delivery 2. Tangible goods, tangible customers 3. In sync with customer business On a global scale, millions of customer touch points a day create an opportunity for market intelligence, product feedback or even demographics Big Data concepts provide versatile analytic means in order to generate valuable insight on consumer sentiment and product quality Modern logistics solutions seamlessly integrate into production and distribution processes in various industries The tight level of integration with customer operations let logistics providers feel the heartbeat of individual businesses, vertical markets, or regions The application of analy tic methodology to this comprehensive knowledge reveals supply chain risks and provides resilience against disruptions The transport and delivery network is a high-resolution data source 4. A network of information Apart from using data for optimizing the network itself, network data may provide valuable insight on the global flow of goods The power and diversity of Big Data analytics moves the level of observation to a microeconomic viewpoint Local presence and decentralized operations is a necessity for logistics services 5. Global coverage, local presence A fleet of vehicles moving across the country to automatically collect local information along the transport routes Processing this huge stream of data originating from a large delivery fleet creates a valuable zoom display for demographic, environmental, and traffic statistics 15 16 Big Data in Logistics Big Data in Logistics 17 New Customer Base Big Data in Logistics Shop The Data-driven Logistics Provider 5 Existing Custom er Base Customer Loyalty Management Financial Industry Market and customer intelligence External Online Sources Manufacturing FMCG SME Marketing and Sales Product Management New Business Address Verification Market Intelligence Supply Chain Monitoring Environmental Statistics 11 Environmental Intelligence CO2 Sensors attached to delivery vehicles produce fine-meshed statistics on pollution, traffic density, noise, parking spot utilization, etc. Continuous sensor data Service Improvement and Product Innovation Retail Operations Order volume, received service quality 6 Market Research Commercial Data Services Public customer information is mapped against business parameters in order to predict churn and initiate countermeasures High-tech Pharma Public Authorities Customer sentiment and feedback A comprehensive view on customer requirements and service quality is used to enhance the product portfolio 3 8 Supply chain monitoring data is used to create market intelligence reports for small and medium-sized companies Strategic Network Planning Long-term demand forecasts for transport capacity are generated in order to support strategic investments into the network Commerce Sector 9 Households SME Network flow data Core Market Intelligence for SME Location, traffic density, directions, delivery sequence Tr a n s p o r t N e t w ork Financial Demand and Supply Chain Analytics 1 Real-time Route Optimization Delivery routes are dynamically calculated based on delivery sequence, traffic conditions and recipient status Real-time incidents A micro-economic view is created on global supply chain data that helps financial institutions improve their rating and investment decisions Network flow data 10 2 Location, destination, availability Crowd-based Pickup and Delivery A large crowd of occasionally available carriers pick up or deliver shipments along routes they would take anyway Address Verification Fleet personnel verifies recipient addresses which are transmitted to a c entral address verification service provided to retailers and marketing agencies 4 Operational Capacity Planning Short - and mid-term capacity planning allows optimal utilization and scaling of manpower and resources 7 Risk Evaluation and Resilience Planning By tracking and predicting events that lead to supply chain disruptions, the resilience level of transport services is increased Flow of data Flow of physical goods 2013 Detecon International 18 Big Data in Logistics 3.2 Use Cases Operational Efficiency A straightforward way to apply Big Data analytics in a business environment is to increase the level of efficiency in operations. This is simply what IT has always been doing accelerating business processes but Big Data analytics effectively opens the throttle. 3.2.1 Last-mile optimization A constraint in achieving high operational efficiency in a distribution network occurs at the last mile. 24 This final hop in a supply chain is often the most expensive one. The optimization of last-mile delivery to drive down product cost is therefore a promising application for Big Data techniques. Two fundamental approaches make data analysis a powerful tool for increasing last-mile efficiency. In a first and somewhat evolutionary step, a massive stream of information is processed to further maximize the performance of a conventional delivery fleet. This is mainly achieved by real-time optimization of delivery routes. The second, more disruptive approach utilizes data processing to control an entirely new last-mile delivery model. With this, the raw capacity of a huge crowd of randomly moving people replaces the effectiveness of a highly optimized workforce. 1 Real-time route optimization The traveling salesmen problem was formulated around eighty years ago, but still defines the core challenge for last-mile delivery. Route optimization on the last mile aims at saving time in the delivery process. Rapid processing of real-time information supports this goal in multiple ways. When the delivery vehicle is loaded and unloaded, a dynamic calculation of the optimal delivery sequence based on sensor-based detection of shipment items frees the staff from manual sequencing. On the road, telematics databases are tapped to automatically change delivery routes according to current traffic conditions. And routing intelligence considers the availability and location information posted by recipients in order to avoid unsuccessful delivery attempts. In summary, every delivery vehicle receives a continuous adaptation of the delivery sequence that takes into account geographical factors, environmental factors, and recipient status. What makes this a Big Data problem It requires the execution of combinatorial optimization procedures fed from correlated streams of real-time events to dynamically re-route vehicles on the go. As a result, each driver receives instant driving direction updates from the onboard navigation system, guiding them to the next best point of delivery. DHL SmartTruck Daily optimized initial tour planning based on incoming shipment data Dynamic routing system, which recalculates the routes depending on the current order and traffic situation Cuts costs and improves CO2 efficiency, for example by reducing mileage The term last mile has its origin in telecommunications and describes the last segment in a communication network that actually reaches the 24 customer. In the logistics sector, the last mile is a metaphor for the final section of a supply chain, in which goods are handed over to the recipient. Source: The definition of the first and last miles, DHL Discover Logistics, cf. dhl-discoverlogisticscmsencoursetechnologies reinforcementfirst. jsp Big Data in Logistics 2 Crowd-based pick-up and delivery The wisdom and capacity of a crowd of people has become a strong lever for effectively solving business problems. Sourcing a workforce, funding a startup, or performing networked research are just a few examples of requisitioning resources from a crowd. Applied to a distribution network, a crowd-based approach may create substantial efficiency enhancements on the last mile. The idea is simple: Commuters, taxi drivers, or students can be paid to take over lastmile delivery on the routes that they are traveling anyway. Scaling up the number of these affiliates to a large crowd of occasional carriers effectively takes load off the delivery fleet. Despite the fact that crowd-based delivery has to be incentivized, it has potential to cut last-mile delivery costs, especially in rural and sparsely populated areas. On the downside, a crowd-based approach also issues a vital challenge: The automated control of a huge number of randomly moving delivery resources. This requires extensive data processing capabilities, answered by Big Data techniques such as complex event processing and geocorrelation. A real-time data stream is traced in DHL MyWays order to assign shipments to available carriers, based on their respective location and destination. Interfaced through a mobile application, crowd affiliates publish their current position and accept pre-selected delivery assignments. The above two use cases illustrate approaches to optimizing last-mile delivery, yet they are diametrically opposed. In both cases, massive real-time information (originating from sensors, external databases, and mobile devices) is combined to operate delivery resources at maximum levels of efficiency. And both of these Big Data applications are enabled by the pervasiveness of mobile technologies. Unique crowd-based delivery for B2C parcels Flexible delivery in time and location Using existing movement of city residents myways 19 20 Big Data in Logistics 3.2.2 Predictive network and capacity planning Optimal utilization of resources is a key competitive advantage for logistics providers. Excess capacities lower profitability (which is critical for low-margin forwarding services), while capacity shortages impact service quality and put customer satisfaction at risk. Logistics providers must therefore perform thorough resource planning, both at strategic and operational levels. Strategic-level planning considers the long-term configuration of the distribution network, and operational-level planning scales capacities up or down on a daily or monthly basis. For both perspectives, Big Data techniques improve the reliability of planning and the level of detail achieved, enabling logistics providers to perfectly match demand and available resources. 3 Strategic network planning At a strategic level, the topology and capacity of the distribution network are adapted according to anticipated future demand. The results from this stage of planning usually drive investments with long requisition and amortization cycles such as investments in warehouses, distribution centers, and custom-built vehicles. More precise capacity demand forecasts therefore increase efficiency and lower the risks of investing in storage and fleet capacity. Big Data techniques support network planning and optimization by analyzing comprehensive historical capacity and utilization data of transit points and transportation routes. In addition, these techniques consider seasonal factors and emerging freight flow trends by learning algorithms that are fed with extensive statistical series. External economic information (such as industry-specific and regional growth forecasts) is included for more accurate prediction of specific transportation capacity demand. In summary, to substantially increase predictive value, a much higher volume and variety of information is exploited by advanced regression and scenario modeling techniques. The result is a new quality of planning with expanded forecast periods this effectively reduces the risk of long-term infrastructure investments and contracted external capacities. It can also expose any impending over-capacity and provide this as automated feedback to accelerate sales volume. This is achieved by dynamic pricing mechanisms, or by transfer of overhead capacities to spot-market trading. Big Data in Logistics 4 Operational capacity planning At operational level, transit points and transportation routes must be managed efficiently on a day-to-day basis. This involves capacity planning for trucks, trains, and aircraft as well as shift planning for personnel in distribution centers and warehouses. Often operational planning tasks are based on historical averages or even on personal experience, which typically results in resource inefficiency. Instead, using the capabilities of advanced analytics, the dynamics within and outside the distribution network are modeled and the impact on capacity requirements calculated in advance. Real-time information about shipments (items that are entering the distribution network, are in transit, and are stored) is aggregated to predict the allocation of resources for the next 48 hours. This data is automatically sourced from warehouse management systems and sensor data along the transportation chain. In addition detection of ad-hoc changes in demand is derived from externally available customer information (e. g. data on product releases, factory openings, or unexpected bankruptcy). Additionally, local incidents are detected (e. g. regional disease outbreaks or natural disasters) as these can skew demand figures for a particular region or product. This prediction of resource requirements helps Both of the above Big Data scenarios increase resource efficiency in the distribution network, but the style of data processing is different. The strategic optimization combines a high data volume from a variety of sources in order to support investment and contracting decisions, while the operational optimization continuously forecasts network flows based on real-time streams of data. DHL Parcel Volume Prediction operating personnel to scale capacity up or down in each particular location. But theres more to it than that. A precise forecast also reveals upcoming congestions on routes or at transit points that cannot be addressed by local scaling. For example, a freight aircraft that is working to capacity must leave behind any further expedited shipments at the airport of origin. Simulation results give early warning of this type of congestion, enabling shipments to be reassigned to uncongested routes, mitigating the local shortfall. This is an excellent example of how Big Data analytics can turn the distribution network into a self-optimizing infrastructure. Analytic tool to measure influences of external factors on the expected volume of parcels Correlates external data with internal network data Results in a Big Data Prediction Model that significantly increases operational capacity planning Ongoing research project by DHL Solutions amp Innovation 21 22 Big Data in Logistics 3.3 Use Cases Customer Experience The aspect of Big Data analytics that currently attracts the most attention is acquisition of customer insight. For every business, it is vitally important to learn about customer demand and satisfaction. But as organizations experience increased business success, the individual customer can blur into a large and anonymous customer base. Big Data analytics help to win back individual customer insight and to create targeted customer value. 3.3.1 Customer value management Clearly, data from the distribution network carries significant value for the analysis and management of customer relations. With the application of Big Data techniques, and enriched by public Internet mining, this data can be used to minimize customer attrition and understand customer demand. 5 Customer loyalty management For most business models, the cost of winning a new customer is far higher than the cost of retaining an existing customer. But it is increasingly difficult to trace and analyze individual customer satisfaction because there are more and more indirect customer touch points (e. g. portals, apps, and indirect sales channels). Because of this, many businesses are failing to establish effective customer retention programs. Smart use of data enables the identification of valuable customers who are on the point of leaving to join the competition. Big Data analytics allow a comprehensive assessment of customer satisfaction by merging multiple extensive data sources. For logistics providers, this materializes in a combined evaluation of records from customer touch points, operational data on logistics service quality, and external data. How do these pieces fit together Imagine the scenario of a logistics provider noticing a customer who lowers shipment volumes despite concurrently publishing steady sales records through newswire. The provider then checks delivery records, and realizes that this customer recently experienced delayed shipments. Looking at the bigger picture, this information suggests an urgent need for customer retention activity. To achieve this insight not just with one customer but across the entire customer base, the logistics provider must tap multiple data sources and use Big Data analytics. Customer touch points include responses to sales and marketing activities, customer service inquiries, and complaint management details. This digital customer trail is correlated with data from the distribution network comprising statistical series on shipping volume and received service quality levels. In addition, the Internet provides useful customer insight: Publicly available information from news agencies, annual reports, stock trackers, or even sentiments from social media sites enrich the logistics providers internal perspective of each customer. From this comprehensive information pool, the logistics provider can extract the attrition potential of every single customer by applying techniques such as semantic text analytics, natural-language processing, and pattern recognition. On automatically generated triggers, the provider then initiates proactive counter-measures and customer loyalty programs. Although business relationships in logistics usually relate to the sender side, loyalty management must also target the recipient side. Recipients are even more affected by poor service quality, and their feedback influences sender selection for future shipments. A good example of this is Internet or catalog shopping: Recurring customer complaints result in the vendor considering a switch of logistics provider. But to include recipients into loyalty management requires yet more data to be processed, especially in B2C markets. Big Data analytics are essential, helping to produce an integrated view of customer interactions and operational performance, and ensure sender and recipient satisfaction. Big Data in Logistics 6 Continuous service improvement and product innovation Logistics providers collect customer feedback as this provides valuable insight into service quality and customer expectations and demands. This feedback is a major source of information for continuous improvement in service quality. It is also important input for the ideation of new service innovations. To get solid results from customer feedback evaluation, it is necessary to aggregate information from as many touch points as possible. In the past, the single source of data has been ingests from CRM systems and customer surveys. But today, Big Data solutions provide access to gargantuan volumes of useful data stored on public Internet sites. In social networks and on 3.3.2 Suppy chain risk management discussion forums, people openly and anonymously share their service experiences. But extracting by hand relevant customer feedback from the natural-language content created by billions of Internet users is like looking for that proverbial needle in a haystack. The uninterrupted direct supply of materials is essential to businesses operating global production chains. Lost, delayed, or damaged goods have an immediate negative impact on revenue streams. Whereas logistics providers are prepared to control their own operational risk in supply chain services, an increasing number of disruptions result from major events such as civil unrest, natural disasters, or sudden economic developments.25 To anticipate supply chain disruptions and mitigate the effect of unforeseen incidents, global enterprises seek to deploy business continuity management (BCM) measures.26 Sophisticated Big Data techniques such as text mining and semantic analytics allow the automated retrieval of customer sentiment from huge text and audio repositories. In addition, this unsolicited feedback on quality and demand can be broken down by region and time. This enables identification of correlation with one-time incidents and tracking the effect of any initiated action. In summary, meticulous review of the entire public Internet brings unbiased customer feedback to the logistics provider. This empowers product and operational managers to design services capable of meeting customer demand. This demand for improved business continuity creates an opportunity for logistics providers to expand their customer value in outsourced supply chain operations. Rapid analysis of various information streams can be used to forecast events with a potentially significant or disastrous impact on customer business. In response to arising critical conditions, counter-measures can be initiated early to tackle arising business risks. Are you ready for anything, DHL Supply Chain Matters, 2011, cf. dhlsupplychainmatters. dhlefficiencyarticle24are-you-ready - 25 for-anything Making the right risk decisions to strengthen operations performance, PriceWaterhouseCoopers and MIT Forum for Supply Chain Innovation, 2013 26 23 24 Big Data in Logistics 7 Risk evaluation and resilience planning Contract logistics providers know their customers supply chains in great detail. To cater for the customer need for predictive risk assessment, two things must be linked and continuously checked against each other: A model describing all elements of the supply chain topology, and monitoring of the forces that affect the performance of this supply chain. Data on local developments in politics, economy, nature, health, and more must be drawn from a plethora of sources (e. g. social media, blogs, weather forecasts, news sites, stock trackers, and many other publically available sites), and then aggregated and analyzed. Most of this information stream is unstructured and continuously updated, so Big Data analytics power the retrieval of input that is meaningful in the detection of supply chain risks. Both semantic analytics and complex event processing techniques are required to detect patterns in this stream of interrelated information pieces.27 The customer is notified when a pattern points to a critical condition arising for one of the supply chain elements (e. g. a tornado warning in the region where a transshipment point is located). This notification includes a report on the probability and impact of this risk, and provides suitable counter-measures to mitigate potential disruption. Equipped with this information, the customer can re-plan transport routes or ramp up supplies from other geographies. Robust supply chains that are able to cope with unforeseen events are a vital business capability in todays rapidly changing world. In addition to a resilient and flexible supply chain infrastructure, businesses need highly accurate risk detection to keep running when disaster strikes. With Big Data tools and techniques, logistics providers can secure customer operations by performing predictive analytics on a global scale. Coming Soon A New Supply Chain Risk Management Solution by DHL A unique consultancy and software solution that improves the resilience of your entire supply chain Designed to reduce emergency costs, maintain service levels, protect sales, and enable fast post-disruption recovery Protects your brand and market share, informs your inventory decisions, and creates competitive advantage The Power of Events: An Introduction to Complex Event Processing in Distributed Enterprise Systems, David C. Luckham, Addison-Wesley Long - 27 man, 2001 Big Data in Logistics 3.4 Use Cases New Business Models 3.4.1 B2B demand and supply chain forecast The logistics sector has long been a macroeconomic indicator, and the global transportation of goods often acts as a benchmark for future economic development. The type of goods and shipped volumes indicate regional demand and supply levels. The predictive value of logistics data for the global economy is constituted by existing financial indices measuring the macroeconomic impact of the logistics sector. Examples are the Baltic Dry Index28, a price index for raw materials shipped, and the Dow Jones Transportation Average29, showing the economic stability of the 20 largest U. S. logistics providers. By applying the power of Big Data analytics, logistics providers have a unique opportunity to extract detailed microeconomic insights from the flow of goods through their distribution networks. They can exploit the huge digital asset that is piled up from the millions of daily shipments by capturing demand and supply figures in various geographical and industry segments. 8 The result has high predictive value and this compound market intelligence is therefore a compelling service that can be offered by third parties. To serve a broad range of potential customers, the generated forecasts are segmented by industry, region, and product category. The primary target groups for advanced data services such as these are small and medium-sized enterprises that lack capacity to conduct their own customized market research. Market intelligence for small and medium-sized enterprises The aggregation of shipment records (comprising origin, destination, type of goods, quantity, and value) is an extensive source of valuable market intelligence. As long as postal privacy is retained, logistics providers can refine this data in order to substantiate existing external market research. With regression analysis, DHL Geovista the fine-grained information in a shipment database can significantly enhance the precision of conventional demand and supply forecasts. Online geo marketing tool for SMEs to analyze business potential Provides realistic sales forecast and local competitor analysis based on a scientific model A desired location can be evaluated by using high-quality geodata deutschepost. degeovista Baltic Dry Index, Financial Times Lexicon, cf. lexicon. ftTermtermBaltic-Dry-Index 28 Dow Jones Transportation Average, SampP Dow Jones Indices, cf. djaveragesgotransportation-overview 29 25 26 Big Data in Logistics 9 Financial demand and supply chain analytics Financial analysts depend on data to generate their growth perspectives and stock ratings. Sometimes analysts even perform manual checks on supply chains as the only available source to forecast sales figures or market volumes. So for ratings agencies and advisory firms in the banking and insurance sector, access to the detailed information collected from a global distribution network is particularly valuable. An option for logistics providers is to create a commercial analytics platform allowing a broad range of users to slice and dice raw data according to their field of research effectively creating new revenue streams from the huge amount of information that controls logistics operations. 10 In the above use cases, analytics techniques are applied to vast amounts of shipment data. This illustrates how logistics providers can implement new informationdriven business models. In addition, the monetization of data that already exists adds the potential of highly profitable revenue to the logistics providers top line. 3.4.2 Real-time local intelligence Information-driven business models are frequently built upon existing amounts of data, but this is not a prerequisite. An established product or service can also be extended in order to generate new information assets. For logistics providers, the pickup and delivery of shipments provides a particular opportunity for a complementary new business model. No other industry can provide the equivalent blanket-coverage local presence of a fleet of vehicles that is constantly on the move and geographically distributed. Logistics providers can equip these vehicles with new devices (with camera, sensor, and mobile connectivity miniaturization powered by the Internet of Things) to collect rich sets of information on the go. This unique capability enables logistics providers to offer existing and new customers a completely new set of value-added data services. Address verification The verification of a customers delivery address is a fundamental requirement for online commerce. Whereas address verification is broadly available in industrialized nations, for developing countries and in remote areas the quality of address data is typically poor. This is also partly due to the lack of structured naming schemes for streets and buildings in some locations. Logistics providers can use daily freight, express, and parcel delivery data to automatically verify address data to achieve, for example, optimized route planning with correct geocoding for retail, banking, and public sector entities. DHL Address Management Direct match of input data with reference data Return incomplete or incorrect incoming data with validated data from database Significant increase of data quality for planning purposes (route planning) Big Data in Logistics 11 Environmental intelligence The accelerated growth of urban areas30 increases the importance of city planning activities and environmental monitoring. By using a variety of sensors attached to delivery vehicles, logistics providers can produce rich environmental statistics. Data sets may include measurements of ozone and fine dust pollution, temperature and humidity, as well as traffic density, noise, and parking spot utilization along urban roads. As all of this data can be collected en passant (in passing), it is relatively easy for logistics providers to offer a valuable data service to authorities, environment agencies, and real-estate developers while achieving complementary revenues to subsidize, for example, the maintenance of a large delivery fleet. There are numerous other local intelligence use cases exploiting the ubiquity of a large delivery fleet. From road condition reports that steer plowing or road maintenance squads, to surveys on the thermal insulation of public households, logistics providers are in pole position as search engines in the physical world. Innovative services that provide all kinds of data in microscopic geographical detail are equally attractive to advertising agencies, construction companies, and public bodies such as police and fire departments. Big Data techniques that extract structured information from real-time footage and sensor data are now building a technical backbone for the deployment of new data-driven business models. 3.5 Succcess Factors for Implementing Big Data Analytics Our discussion of Big Data analytics has been focused on the value of information assets and the way in which logistics providers can leverage data for better business performance. This is a good start, as solid use cases are a fundamental requirement for adopting new information-driven business models. But there needs to be more than a positive assessment of business value. The following five success factors must also be in place. 3.5.1 Business and IT alignment In the past, advancements in information management clearly targeted either a business problem or a technology problem. While trends such as CRM strongly affected the way sales and service people work, other trends such as cloud computing have caused headaches for IT teams attempting to operate dynamic IT resources across the Internet. Consequently, business units and the IT department may have different perspectives on which changes are worth adopting and managing. But for an organization to transform itself into an information-driven company one that uses Big Data analytics for competitive advantage both the business units and the IT department must accept and support substantial change. It is therefore essential to demonstrate and align both a business case and an IT case for using Big Data (including objectives, benefits, and risks). To complete a Big Data implementation, there must be a mutual understanding of the challenges as well as a joint commitment of knowledge and talent. According to the United Nations, by 2050 85.9 of the population in developed countries will live in urban areas. Taken from: Open-air computers, 30 The Economist, Oct. 27, 2012 cf. economistnewsspecial-report21564998-cities-are-turning-vast-data-factories-open-air-computers 27 28 Big Data in Logistics 3.5.2 Data transparency and governance Big Data use cases often build upon a smart combination of individual data sources which jointly provide new perspectives and insights. But in many companies the reality is that three major challenges must be addressed to ensure successful implementation. First, to locate data that is already available in the company, there must be full transparency of information assets and ownership. Secondly, to prevent ambiguous data mapping, data attributes must be clearly structured and explicitly defined across multiple databases. And thirdly, strong governance on data quality must be maintained. The validity of mass query results is likely to be compromised unless there are effective cleansing procedures to remove incomplete, obsolete, or duplicate data records. And it is of utmost importance to assure high overall data quality of individual data sources because with the boosted volume, variety, and velocity of Big Data it is more difficult to implement efficient validation and adjustment procedures. 3.5.3 Data privacy In the conceptual phase of every Big Data project, it is essential to consider data protection and privacy issues. Personal data is often revealed when exploiting information assets, especially when attempting to gain customer insight. Use cases are typically elusive in countries with strict data protection laws, yet legislation is not the only constraint. Even when a use case complies with prevailing laws, the large-scale collection and exploitation of data often stirs public debate and this can subsequently damage corporate reputation and brand value. or breaks reliable and meaningful insights. In most industries, the required mathematical and statistical skillset is scarce. In fact, a talent war is underway, as more and more companies recognize they must source missing data science skills externally. Very specialized knowledge is required to deploy the right techniques for each particular data processing problem, so organizations must invest in new HR approaches in support of Big Data initiatives. 3.5.5 Appropriate technology usage Many data processing problems currently hyped as Big Data challenges could, in fact, have been technically solved five years ago. But back then, the required technology investment would have shattered every business case. Now at a fraction of the cost, raw computing power has exponentially increased, and advanced data processing concepts are available, enabling a new dimension of performance. The most prominent approaches are in-memory data storage and distributed computing frameworks. However, these new concepts require adoption of entirely new technologies. 3.5.4 Data science skills For IT departments to implement Big Data projects therefore requires a thorough evaluation of established and new technology components. It needs to be established whether these components can support a particular use case, and whether existing investments can be scaled up for higher performance. For example, in-memory databases (such as the SAP HANA system) are very fast but have a limited volume of data storage, while distributed computing frameworks (such as the Apache Hadoop framework) are able to scale out to a huge number of nodes but at the cost of delayed data consistency across multiple nodes. A key to successful Big Data implementation is mastery of the many data analysis and manipulation techniques that turn vast raw data into valuable information. The skillful application of computational mathematics makes In summary, these are the five success factors that must be in place for organizations to leverage data for better business performance. Big Data is ready to be used. Outlook OUTLOOK Looking ahead, there are admittedly numerous obstacles to overcome (data quality, privacy, and technical feasibility, to name just a few) before Big Data has pervasive influence in the logistics industry. But in the long run, these obstacles are of secondary importance because, first and foremost, Big Data is driven by entrepreneurial spirit. Several organizations have led the way for us Google, Amazon, Facebook, and eBay, for example, have already succeeded in turning extensive information into business. Now we are beginning to see first movers in the logistics sector. These are the entrepreneurial logistics providers that refuse to be left behind the opportunity-oriented organizations prepared to exploit data assets in pursuit of the applications described in this trend report. But apart from the leading logistics providers that implement specific Big Data opportunities, how will the entire logistics sector transform into a data-driven industry What evolution can we anticipate in a world where virtually every single shipped item is connected to the Internet We may not know all of the answers right now. But this trend report has shown there is plenty of headroom for valuable Big Data innovation. Joining resources, labor, and capital, it is clear that information has become the fourth production factor and essential to competitive differentiation. It is time to tap the potential of Big Data to improve operational efficiency and customer experience, and create useful new business models. It is time for a shift of mindset, a clear strategy and application of the right drilling techniques. Over the next decade, as data assumes its rightful place as a key driver in the logistics sector, every activity within DHL is bound to get smarter, faster, and more efficient. 29 FOR MORE INFORMATION About Big Data in Logistics, contact: RECOMMENDED READING LOGISTICS TREND RADAR Dr. Markus Kckelhaus DHL Customer Solutions amp Innovation Junkersring 57 53844 Troisdorf, Germany Phone: 49 2241 1203 230 Mobile: 49 152 5797 0580 e-mail: markus. kueckelhausdhl Katrin Zeiler DHL Customer Solutions amp Innovation Junkersring 57 53844 Troisdorf, Germany Phone: 49 2241 1203 235 Mobile: 49 173 239 0335 e-mail: katrin. zeilerdhl dhltrendradar KEY LOGISTICS TRENDS IN LIFE SCIENCES 2020 dhllifesciences2020. View Full Document This document was uploaded on 11302016 for the course MS 6721 at City University of Hong Kong. Click to edit the document details Share this link with a friend: Most Popular Documents for MS 6721 8NetworkReadingSciRep2012.pdf City University of Hong Kong MS 6721 - Winter 2016 Understanding Road Usage Patterns in Urban Areas SUBJECT AREAS: APPLIED PHYSICS CIVIL 7Network. pdf City University of Hong Kong MS 6721 - Winter 2016 1 SUPPLY CHAIN MANAGEMENT Lecture 7 Network and Graph Qingpeng ZHANG SEEM, City Unive 8NetworkReadingIJOPM2011.pdf City University of Hong Kong MS 6721 - Winter 2016 International Journal of Operations amp Production Management A complex network approac reading tasks2.docx City University of Hong Kong MS 6721 - Winter 2016 Summary Of Decision Support Systems nowsdays supply chain risks is becoming increasin MS6721.pdf City University of Hong Kong MS 6721 - Winter 2016 Form 2B City University of Hong Kong Information on a Course offered by Department of 3Demand. pdf City University of Hong Kong MS 6721 - Winter 2016 1 SUPPLY CHAIN MANAGEMENT Lecture 3 Demand For ecasting Qingpeng ZHANG SEEM, City Univ404 means the file is not found. إذا كنت قد حملت الملف من قبل، فقد يكون خطأ إملائيا أو أنه موجود في مجلد مختلف. الأسباب المحتملة الأخرى قد تحصل على خطأ 404 للصور لأن لديك حماية الرابط الساخن قيد التشغيل والمجال غير موجود في قائمة النطاقات المصرح بها. إذا ذهبت إلى عنوان ورل المؤقت الخاص بك (اسم المستخدم إب) والحصول على هذا الخطأ، ربما هناك مشكلة مع مجموعة القاعدة المخزنة في ملف. htaccess. يمكنك محاولة إعادة تسمية هذا الملف إلى. htaccess-باكوب وتحديث الموقع لمعرفة ما إذا كان ذلك سيحل المشكلة أم لا. ومن الممكن أيضا أنك قد حذفت عن غير قصد جذر المستند الخاص بك أو قد تحتاج إلى إعادة إنشاء حسابك. وفي كلتا الحالتين، يرجى الاتصال بمضيف الويب فورا. هل تستخدم وردبريس راجع القسم على أخطاء 404 بعد النقر فوق ارتباط في وردبريس. الملفات المفقودة أو المكسورة عندما تحصل على خطأ 404 تأكد من التحقق من عنوان ورل الذي تحاول استخدامه في المتصفح الخاص بك. هذا يخبر الخادم ما يجب أن يحاول المورد طلبه. في هذا المثال يجب أن يكون الملف في بوبليستمليكسامبل إكسامبل لاحظ أن كايس مهم في هذا المثال. أما على المنصات التي تفرض معايير الحساسية لحالة الأحرف و E إكسامبل فهي ليست نفس المواقع. بالنسبة إلى نطاقات الإضافة، يجب أن يكون الملف في بوبليشتملوندوندومينكسامبل إكسامبل وأن الأسماء حساسة لحالة الأحرف. الصورة المكسورة عندما يكون لديك صورة مفقودة على موقعك قد ترى مربع على صفحتك مع X الأحمر حيث الصورة مفقودة. انقر بزر الماوس الأيمن على X واختر خصائص. ستخبرك الخصائص بالمسار واسم الملف الذي لا يمكن العثور عليه. ويختلف هذا حسب المتصفح، إذا لم يظهر لك مربع في صفحتك باستخدام علامة X حمراء، فحاول النقر على الصفحة، ثم حدد عرض معلومات الصفحة، ثم انتقل إلى علامة التبويب الوسائط. في هذا المثال يجب أن يكون ملف الصورة في بوبليستملجي-سيسيماجيس لاحظ أن كيس مهم في هذا المثال. على الأنظمة الأساسية التي تعمل على فرض حساسية الحالة ينغ و بابوا نيو غينيا ليست هي نفس المواقع. عند التعامل مع وردبريس، يمكن أن تحدث أخطاء 404 صفحة لم يتم العثور عليها في كثير من الأحيان عند تنشيط موضوع جديد أو عندما تم تغيير قواعد إعادة كتابة في ملف. htaccess. عندما تواجه خطأ 404 في وردبريس، لديك خياران لتصحيح ذلك. الخيار 1: تصحيح الرابط الثابت تسجيل الدخول إلى وردبريس. من قائمة التنقل اليمنى في وردبريس، انقر فوق إعدادات غ لينكولنكس (لاحظ الإعداد الحالي. إذا كنت تستخدم بنية مخصصة، نسخ أو حفظ بنية مخصصة في مكان ما.) حدد افتراضي. انقر على حفظ الإعدادات. تغيير الإعدادات مرة أخرى إلى التكوين السابق (قبل تحديد الافتراضي). وضع هيكل مخصص مرة أخرى إذا كان لديك واحدة. انقر على حفظ الإعدادات. سيؤدي هذا إلى إعادة تعيين الروابط الثابتة وإصلاح المشكلة في العديد من الحالات. إذا كان هذا لا يعمل، قد تحتاج إلى تحرير ملف. htaccess مباشرة. الخيار 2: تعديل ملف. htaccess قم بإضافة مقتطف التعليمات البرمجية التالي إلى أعلى ملف. htaccess: بيجين وردبريس ltIfModule modrewrite. cgt إعادة الكتابة على ريوريتباس ريوريتيرول index. php - L ريوريتكوند - f ريوريتكوند - d ريوريتيرول. index. php L لتيفودولغت إند وردبريس إذا كانت مدونتك تعرض اسم نطاق غير صحيح في روابط، أو إعادة توجيه إلى موقع آخر، أو يفتقر إلى الصور والأسلوب، فكل هذه عادة ما تكون ذات صلة بالمشكلة نفسها: لديك اسم نطاق خاطئ تم تكوينه في مدونة وردبريس. يحتوي ملف. htaccess على توجيهات (تعليمات) تخبر الخادم عن كيفية التصرف في سيناريوهات معينة وتؤثر بشكل مباشر على كيفية عمل موقعك على الويب. عمليات إعادة التوجيه وإعادة كتابة عناوين ورل هي توجيهان شائعان جدا موجودان في ملف. htaccess، كما أن العديد من البرامج النصية مثل ووردبريس و دروبال و جوملا و ماجينتو تضيف توجيهات إلى هتاتشس حتى تتمكن تلك البرامج النصية من العمل. من الممكن أن تحتاج إلى تعديل ملف. htaccess في وقت ما، لأسباب مختلفة. هذا القسم يغطي كيفية تحرير الملف في لوحة التحكم، ولكن ليس ما قد تحتاج إلى تغيير. (قد تحتاج إلى استشارة مقالات أخرى و الموارد اللازمة لهذه المعلومات.) هناك العديد من الطرق لتعديل ملف. htaccess تحرير الملف على جهاز الكمبيوتر الخاص بك وتحميله إلى الملقم عبر بروتوكول نقل الملفات استخدام برامج فتب وضع تحرير استخدام سش ومحرر نص استخدام إدارة الملفات في لوحة التحكم أسهل طريقة تحرير ملف. htaccess لمعظم الناس من خلال إدارة الملفات في لوحة التحكم. كيفية تحرير. htaccess الملفات في إدارة الملفات كبانيلز قبل أن تفعل أي شيء، يقترح عليك النسخ الاحتياطي موقع الويب الخاص بك بحيث يمكنك العودة إلى إصدار سابق إذا كان هناك شيء يذهب على نحو خاطئ. افتح سجل إدارة الملفات في لوحة التحكم. في قسم الملفات، انقر فوق رمز إدارة الملفات. حدد المربع لجذر المستند لاسم النطاق الذي تريد الوصول إليه من القائمة المنسدلة وحدد اسم النطاق. تأكد من تحديد إظهار الملفات المخفية (دوتفيلز). انقر على انتقال. سيتم فتح "إدارة الملفات" في علامة تبويب أو نافذة جديدة. ابحث عن ملف. htaccess في قائمة الملفات. قد تحتاج إلى التمرير للعثور عليه. لتحرير ملف. htaccess انقر بزر الماوس الأيمن على ملف. htaccess وانقر على كود إديت من القائمة. وبدلا من ذلك، يمكنك النقر على الرمز لملف. htaccess ثم النقر على رمز محرر الشفرة أعلى الصفحة. قد يظهر مربع حوار يسألك عن الترميز. انقر على تعديل للمتابعة. سيتم فتح المحرر في نافذة جديدة. قم بتحرير الملف حسب الحاجة. انقر على حفظ التغييرات في الجانب العلوي الأيسر عند الانتهاء. سيتم حفظ التغييرات. اختبر موقعك للتأكد من حفظ التغييرات بنجاح. وإذا لم يكن الأمر كذلك، فصحح الخطأ أو ارجع إلى الإصدار السابق حتى يعمل موقعك مرة أخرى. Once complete, you can click Close to close the File Manager window. Introduction. Lecture BigData Analytics. Julian M. Kunkel. 1 Introduction Lecture BigData Analytics Julian M. Kunkel University of Hamburg German Climate Computing Center (DKRZ) 2 Outline 1 Introduction 2 BigData Challenges 3 Analytical Workflow 4 Use Cases 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 3 About DKRZ German Climate Computing Center (DKRZ) Partner for Climate Research Maximum Compute Performance. Sophisticated Data Management. Competent Service. Julian M. Kunkel Lecture BigData Analytics, 51 4 Introduction BigData Challenges Analytical Workflow Use Cases Programming Summary Scientific Computing Research Group of Prof. Ludwig at the University of Hamburg Embedded into DKRZ Research Analysis of parallel IO Alternative IO interfaces IO amp energy tracing tools Data reduction techniques Middleware optimization Cost amp energy efficiency Julian M. Kunkel Lecture BigData Analytics, 51 5 Lecture Concept of the lecture The lecture is focussing on applying technology and some theory Theory Data models and processing concepts Algorithms and data structures System architectures Statistics and machine learning Applying technology Learning about various state-of-the art technology Hands-on for understanding the key concepts Languages: Java, Python, R The domain of big data is overwhelming, especially in terms of technology It is a crash course for several topics such as statistics and databases it is not the goal to learn and understand every aspect in this lecture Julian M. Kunkel Lecture BigData Analytics, 51 6 Lecture (2) Slides Many openly accessable sources have been used Citation to them by a number The reference slide provides the link to the source For figures, a reference is indicated by Source: Author 1 title ref In the title, an ref means that this reference has been used for the slide, some text may be taken literally Excercise Weekly delivery, processing time about 8 hours per week estimated Teamwork of 2 or 3 people (groups are mandatory) Supported by: Hans Ole Hatzel 1 If available Julian M. Kunkel Lecture BigData Analytics, 51 7 Idea of BigData Methods of obtaining knowledge (Erkenntnissprozess) Theory (model), hypothesis, experiment, analysis (repeat) Explorative: start theory with observations of phenomena Constructivism: starts with axioms and reason implications The Fourth Paradigm (Big) Data Analytics Insight (prediction of the future) For industry: insight business advantage and money. Analytics: follow an explorative approach and study the data To infer knowledge, use statistics machine learning Construct a theory (model) and validate it with the data Julian M. Kunkel Lecture BigData Analytics, 51 8 Example Models Similarity is a (very) simplistic model and predictor for the world Humans use this approach in their cognitive process Uses the advantage of BigData Weather prediction You may develop and rely on complex models of physics Or use a simple model for a particular day e. g. expect it to be similar to the weather of the day over the last X years Used by humans: rule of thumb for farmers Preferences of Humans Identify a set of people which liked items you like Predict you like also the items those people like (items you haven t rated so far) Julian M. Kunkel Lecture BigData Analytics, 51 9 Relevance of Big Data Big Data Analytics is emerging Relevance increases compared to supercomputing Google Search Trends, relative searches Julian M. Kunkel Lecture BigData Analytics, 51 10 1 Introduction 2 BigData Challenges Volume Velocity Variety Veracity Value 3 Analytical Workflow 4 Use Cases 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 11 BigData Challenges amp Characteristics Source: MarianVesper 4 Julian M. Kunkel Lecture BigData Analytics, 51 12 Volume: The size of the Data What is Big Data Terrabytes to 10s of petabytes What is not Big Data A few gigabytes Examples Wikipedia corpus with history ca. 10 TByte Wikimedia commons ca. 23 TByte Google search index ca. 46 Gigawebpages 2 YouTube per year 76 PByte ( ) 2 3 sumanrs. wordpress20120414youtube-yearly-costs-for-storagenetworking-estimate Julian M. Kunkel Lecture BigData Analytics, 51 13 Velocity: Data Volume per Time What is Big Data 30 KiB to 30 GiB per second (902 GiByear to 902 PiByear) What is not Big Data A never changing data set Examples LHC (Cern) with all experiments about 25 GBs 4 Square Kilometre Array 700 TBs (in 2018) 5 50k Google searches per s 6 Facebook 30 Billion content pieces shared per month blog. kissmetricsfacebook-statistics Julian M. Kunkel Lecture BigData Analytics, 51 14 Data Sources Enterprise data Serves business objectives, well defined Customer information Transactions, e. g. Purchases ExperimentalObservational data (EOD) Created by machines from sensorsdevices Trading systems, satellites Microscopes, video streams, Smart meters Social media Created by humans Messages, posts, blogs, Wikis Julian M. Kunkel Lecture BigData Analytics, 51 15 Variety: Types of Data Structured data Like tables with fixed attributes Traditionally handled by relational databases Unstructured data Usually generated by humans E. g. natural language, voice, Wikipedia, Twitter posts Must be processed into (semi-structured) data to gain value Semi-structured data What is Big Data Has some structure in tags but it changes with documents E. g. HTML, XML, JSON files, server logs Use data from multiple sources and in multiple forms Involve unstructured and semi-structured data Julian M. Kunkel Lecture BigData Analytics, 51 16 Veracity: Trustworthiness of Data What is Big Data Data involves some uncertainty and ambiguities Mistakes can be introduced by humans and machines People sharing accounts Like sth. today, dislike it tomorrorw Wrong system timestamps Data Quality is vital Analytics and conclusions rely on good data quality Garbage data perfect model gt garbage results Perfect data garbage model gt garbage results GIGO paradigm: Garbage In Garbage Out Julian M. Kunkel Lecture BigData Analytics, 51 17 Value of Data What is Big Data Raw data of Big Data is of low value For example, single observations Analytics and theory about the data increases the value Analytics transform big data into smart data Julian M. Kunkel Lecture BigData Analytics, 51 18 Types of Data Analytics and Value of Data 1 Descriptive analytics (Beschreiben) What happened 2 Diagnostic analytics Why did this happen, what went wrong 3 Predictive analytics (Vorhersagen) What will happen 4 Prescriptive analytics (Empfehlen) What should we do and why The level of insight and value of data increases from step 1 to 4 Julian M. Kunkel Lecture BigData Analytics, 51 19 Introduction BigData Challenges Analytical Workflo w Use Cases Programming Summary The Value of Data (alternative view) Source: Dursun Delen, Haluk Demirkan 9 Julian M. Kunkel Lecture BigData Analytics, 51 20 The Value of Data (alternative view 2) Source: Forrester report. Understanding The Business Intelligence Growth Opportunity Julian M. Kunkel Lecture BigData Analytics, 51 21 1 Introduction 2 BigData Challenges 3 Analytical Workflow Value Chain Roles Privacy 4 Use Cases 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 22 Big Data Analytics Value Chain There are many visualizations of the processing and value chain 8 Source: Andrew Stein 8 Julian M. Kunkel Lecture BigData Analytics, 51 23 Big Data Analytics Value Chain (2) Source: Miller and Mork 7 Julian M. Kunkel Lecture BigData Analytics, 51 24 Roles in the Big Data Business Data scientist Data science is a systematic method dedicated to knowledge discovery via data analysis 1 In business, optimize organizational processes for efficiency In science, analyze experimentalobservational data to derive results Data engineer Data engineering is the domain that develops and provides systems for managing and analyzing big data Build modular and scalable data platforms for data sci entists Deploy big data solutions Julian M. Kunkel Lecture BigData Analytics, 51 25 Typical Skills Data scientist Statistics (Mathematics) Computer science Programming e. g. Java, Python, R, (SAS. ) Machine learning Some domain knowledge for the problem to solve Data engineer Computer science Databases Software engineering Massively parallel processing Real-time processing Languages: C, Java, Python Understand performance factors and limitations of systems Julian M. Kunkel Lecture BigData Analytics, 51 26 Data Science vs. Business Intelligence (BI) Characteristics of BI Provides pre-created dashboards for management Repeated visualization of well known analysis steps Deals with structured data Typically data is generated within the organization Central data storage (vs. multiple data silos) Handeled well by specialized database techniques Typical types of insight Customer service data: what business causes the largest customer wait times Sales and marketing data: which marketing is most effective Operational data: efficiency of the help desk Employee performance data: who is mostleast productive Julian M. Kunkel Lecture BigData Analytics, 51 27 Privacy B e aware of privacy issues if you deal with personalprivate information. German privacy laws are more strict than those of other countries Ziel des Datenschutzes Recht auf informationelle Selbstbestimmung Schutz des Einzelnen vor beeintraumlchtigung des Persoumlnlichkeitsrechts durch den Umgang mit seinen personenbezogenen 8 Daten Besonderer Schutz fuumlr Daten uumlber Gesundheit, ethnische Herkunft, religioumlse, gewerkschaftschliche oder sexuelle Orientierung 8 3 BDSG, Einzelangaben uumlber persoumlnliche oder sachliche Verhaumlltnisse einer bestimmten oder bestimmbaren natuumlrlichen Person Julian M. Kunkel Lecture BigData Analytics, 51 28 Wichtige Grundsaumltze des Gesetzes 10 Verbotsprinzip mit Erlaubsnisvorbehalt Erhebung, Verarbeitung, Nutzung und Weitergabe von personenbezogenen Daten sind verboten Nutzung nur mit Rechtsgrundlage oder mit Zustimmung der Person Unternehmen mit 10 Personen benoumltigen Datenschutzbeauftragten Verfahren zur automatischen Verarbeitung sind vom Datenschutzbeauftragten zu pruumlfen und anzeigepflichtig Sitz der verantwor tlichen Stelle maszliggeblich Bei einer Niederlassung in D gilt BDSG Prinzipien: Datenvermeidung, - sparsamkeit Schutz vor Zugriffen, Aumlnderungen und Weitergabe Betroffene haben Recht auf Auskunft, Loumlschung oder Sperrung AnonymisierungPseudonymisierung: Ist die Zuordnung zu Einzelpersonen (nahezu) ausgeschlossen, so koumlnnen Daten verabeitet werden Julian M. Kunkel Lecture BigData Analytics, 51 29 1 Introduction 2 BigData Challenges 3 Analytical Workflow 4 Use Cases Overview 5 Programming 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 30 Source: 21 Julian M. Kunkel Lecture BigData Analytics, 51 31 Use Cases for BigData Analytics Increase efficiency of processes and systems Advertisement: Optimize for target audience Product: Acceptance (likedislike) of buyer, dynamic pricing Decrease financial risks: fraud detection, account takeover Insurance policies: Modeling of catastrophes Recommendation engine: Stimulate purchaseconsume Systems: Fault prediction and anomaly dete ction Supply chain management Science Epidemiology research: Google searches indicate Flu spread Personalized Healthcare: Recommend good treatment Physics: Finding the Higgs-Boson, analyze telescope data Enabler for social sciences: Analyze people s mood Julian M. Kunkel Lecture BigData Analytics, 51 32 Big Data in Industry Source: 20 Julian M. Kunkel Lecture BigData Analytics, 51 33 Example Use Case: Deutschland Card 2 Goals Customer bonus card which tracks purchases Increase scalability and flexibility Previous solution based on OLAP Big Data Characteristics Volume: O(10) TB Variety: mostly structured data, schemes are extended steadily Velocity: data growth rate O(100) GB month Results Much better scalability of the solution From dashboards to ad-hoc analysis within minutes Julian M. Kunkel Lecture BigData Analytics, 51 34 Example Use Case: DM 2 Goals Predict required employees per day and store Prevent staff changes on short-notice Big Data Characteristics Results Input data: O pening hours, incoming goods, empl. preferences, holidays, weather. Model: NeuroBayes (Bayes neuronal networks) Predictions: Sales, employee planning predictions per week Daily updated sales per store Reliable predictions for staff planning Customer and employee satisfaction Julian M. Kunkel Lecture BigData Analytics, 51 35 Example Use Case: OTTO 2 Goals Optimize inventory and prevent out-of-stock situations Big Data Characteristics Input data: product characteristics, advertisement VolumeVelocity: 135 GBweek, 300 million records Model: NeuroBayes (Bayes neuronal networks) 1 billion predictions per year Results Better prognostics of product sales (up to 40) Real time data analytics Julian M. Kunkel Lecture BigData Analytics, 51 36 Example Use Case: Smarter Cities (by KTH) 2 Goals Improve traffic management in Stockholm Prediction of alternative routes Big Data Characteristics Input data: Traffic videossensors, weather, GPS VolumeVelocity: 250k GPS-datas other data sources Results 20 less traffic 50 reduction in travel time 20 less emissions Julian M. Kunkel Lecture BigData Analytics, 51 37 Example Facebook Studies Insight from 11 by exploring posts Young narcissists tweet more likely. Middle-aged narcissists update their status US students post more problematic information than German students US Government checks tweetsfacebook messages for several reasons Human communication graph has an average diameter of 4.74 Manipulation of news feeds 13 News feeds have been changed to analysis people s behavior in subsequent posts Paper: Experimental evidence of massive-scale emotional contagion through social networks Julian M. Kunkel Lecture BigData Analytics, 51 38 From Big Data to the Data Lake 20 With cheap storage costs, people promote the concept of the data lake Combines data from many sources and of any type Allows for conducting future analysis and not miss any opportunity Attributes of the data lake Collect everything: all data, both raw sources over extended periods of time as well as any processed data Decide during analysis which data is important, e. g. no schema until read Dive in anywhere: enable users across multiple business units to refine, explore and enrich data on their terms Flexible access: enable multiple data access patterns across a shared infrastructure: batch, interactive, online, search, and others Julian M. Kunkel Lecture BigData Analytics, 51 39 1 Introduction 2 BigData Challenges 3 Analytical Workflow 4 Use Cases 5 Programming Java Python R 6 Summary Julian M. Kunkel Lecture BigData Analytics, 51 40 Programming BigData Analytics High-level concepts SQL and derivatives Domain-specific languages (Cypher, PigLatin) Programming languages Java interfaces are widely available but low-level Python and R have connectors to popular BigData solutions In the exercises, we ll learn and use basics of those languagesinterfaces Julian M. Kunkel Lecture BigData Analytics, 51 41 Introduction to Java Developed by Sun Microsystems in 1995 Object oriented programming language OpenJDK implementation is open source Source code byte co de just-in-time compiler Byte code is portable amp platform independent Virtual machine abstracts from systems Strong and static type system Popular language for Enterprise amp Big Data applications Most popular programming language (Pos. 1 on the TIOBE index) Development tools: Eclipse Specialties Good runtime and compile time error reporting Generic data types (vs. templates of C) Introspection via. Reflection Julian M. Kunkel Lecture BigData Analytics, 51 44 Introduction to Python Open source Position 5 on TIOBE index Interpreted language Weak type system (errors at runtime) Development tools: any editor, interactive shell Note: Use and learn python3 explicitly Recommended plotting library: matplotlib 9 Specialties Strong text processing Simple to use Support for object oriented programming Indentation is relevant for code blocks 9 Julian M. Kunkel Lecture BigData Analytics, 51 45 Example Python Program 1 binenv python 2 import re use the module re 3 4 function reading a file 5 def readfile(filename): 6 with open(filename, r ) as f: 7 data f. readlines() 8 f. close() 9 return data 10 return return an empty arraylist the main function 13 if name quot main quot: 14 data readfile( intro. py ) 15 iterate over the array 16 for x in data: 17 extract imports from a python file using a regex 18 m re. match(quotimport t(pltwhatgt )quot, x) 19 if m: 20 print(m. group(quotwhatquot)) 21 dictionary (key value pair) 22 dic m. groupdict() 23 dic. update( ) append a new dict. with one key 24 use format string with dictionary 25 print(quotfound import (WHAT)s in file (FILE)squot dic ) 26 Prints: Found import re in file intro. py Julian M. Kunkel Lecture BigData Analytics, 51 46 Example Python Classes 1 from abc import abstractmethod 2 3 class Animal(): 4 constructor, self are instance methods, else class methods 5 def init (self, weight): 6 self. weight weight private variables start with 7 8 decorator 10 def name(self): 11 return self. class. name reflection like def str (self): 14 return quotI m a s with weight fquot (self. name(), self. weight) class Rabbit(Animal): 17 def init (self): 18 super() is available with python 3 19 super(). init (2.5) def name(self): 22 return quotSmall Rabbitquot override name if name quot main quot: 25 r Rabbit() 26 print(r) print: I m a Small Rabbit with weight Julian M. Kunkel Lecture BigData Analytics, 51 47 Introduction to R Based on S language for statisticians Open source Position 19 on TIOBE index Interpreter with C modules (packages) Easy installation of packages via CRAN 10 Popular language for data analytics Development tools: RStudio (or any editor), interactive shell Recommended plotting library: ggplot2 11 Specialties Vectormatrix operations. Note: Loops are slow, so avoid them Table data structure (data frames) 10 Comprehensive R Archive Network 11 Julian M. Kunkel Lecture BigData Analytics, 51 48 Course for Learning R Programming 1 Run with quotRscript intro. rquot or run quotRquot and copyamppaste into interactive shell 2 Installing a new package is as easy as: 3 install. packages(quotswirlquot) 4 Note: sometimes packages are not available on all mirrors 5 library(swirl) load the package 6 7 help(swirl) read help about the function swirl swirl() start an interactive course to learn R 11 a simple for loop 12 for (x in 1:10) else 18 Julian M. Kunkel Lecture BigData Analytics, 51 49 Example R Program 1 create an array 2 x c(1, 2, 10:12) 3 4 apply an operator on the full vector and output it 5 print( x2 ) prints: slice arrays 8 print ( x3:5 ) prints: print( xc(1,4,8) ) prints: 1 11 NA r runif(100, min0, max100) create array with random numbers 12 m matrix(r, ncol4, byrow TRUE) create a matrix slice matri x rows quotmrow(s), column(s)quot 15 print( m10:12, ) Output: 16 ,1 ,2 ,3 ,4 17 1, 2, 3, slice rows amp columns 22 print ( m10, c(1,4) ) Output: 1 subset the table based on a mask 25 set m (m,1 lt 20 amp m,2 gt 2), Julian M. Kunkel Lecture BigData Analytics, 51 51 Summary Big data analytics Explore data and model causalities to gain knowledge amp value Challenges: 5 Vs Volume, velocity, variety, veracity, value Data sources: Enterprise, humans, Exp. Observational data (EOD) Types of data: Structured, unstructured and semi-structured Levels of analytics: Descriptive, predictive and prescriptive Roles in big data business: Data scientist and engineer Data science business intelligence Julian M. Kunkel Lecture BigData Analytics, 51 52 Bibliography 1 Book: Lillian Pierson. Data Science for Dummies. John Wiley amp Sons 2 Report: Juumlrgen Urbanski et. al. Big Data im Praxiseinsatz Szenarien, Beispiele, Effekte. BITKOM 3 4 Forrester Big Data Webinar. Holger Kisker, Martha Bennet. Big Data: Gold Rush Or Illusion Gilbert Miller, Peter Mork From Data to Decisions: A Value Chain for Big Data. 8 Andrew Stein. The Analytics Value Chain. 9 Dursun Delen, Haluk Demirkan. Decision Support Systems, Data, information and analytics as services. j.mp11bl9b9 10 Wikipedia 11 Kashmir Hill. 46 Things We ve Learned From Facebook Studies. Forbe. 12 Hortonworks Julian M. Kunkel Lecture BigData Analytics, 51

Comments

Popular posts from this blog

ح - المتاجرة نظام النقد الاجنبى

السويسرية احد الأسهم خيارات

باستراتيجية تجارب العملات الأجنبية عبر الإنترنت