[עושים תוכנה] עיבוד Big Data ב-Scale עצום!

כיום יש כלים רבים ונוחים לעיבוד מידע והפקת תובנות מעניינות ממנו, אבל מה עושים כשהמידע גדול מדיי בשביל המחשב שלנו, או כשזמן העיבוד עולה מדקות, לשעות לימים ואפילו שבועות? בפרק חדש בסדרת הBig Data נעשה zoom in לתחום העיבוד ומדברים על פתרונות שונים לעיבוד מידע בצורה מבוזרת, בעזרת mapReduce, וApache Spark. נגדיר מושגים שונים, רעיונות, בעיות ופתרונות לתחום עיבוד המידע.

האזנה נעימה,
חן ועמית.

 

נשמח לדיוני המשך בקבוצתינו בפייסבוק ״עושים תוכנה – קהילת מתכנתים ומתכנתות״


 

כתוב/כתבי תגובה