סקירה קצרה: מאריך טווח WIFI מסוג AC1200 של D-Link

כ-גיק, יש לי בבית מספר רשתות תקשורת לשימושים שונים, אולם כשזה מגיע ל-WIFI, הכל נמצא על רשת פשוטה מוגנת בסיסמא. אין שום תוכן רגיש שעובר ברשת הזו (אין בה מצלמות, וכל חיבור SSH/Web פנימית – מוצפן) ואני די מרוצה מהרשת האלחוטית. הבית שלי אינו גדול, הנתב הראשי ל-WIFI נמצא בסלון ויש קליטה לא רעה בכל הבית…

… עד שזה מגיע לוידאו. שיחת וידאו מהטלפון הסלולרי שלי החוצה דרך מסנג'ר, סקייפ, וואטסאפ וכו' – וההערות על איכות וידאו גרועה – מופיעות, למרות שעוצמת האות נראית חזקה, ו-Speedtest מראה תוצאות טובות מאוד, הן ב-2.4 והן ב-5 ג'יגהרץ.

אז החלטתי היום לרכוש מאריך טווח Wifi. ביקרתי ב-iVory ושם הוצעו לי שלושה מכשירים, אחד של Edimax, אחד של TP-Link ואחד של D-Link. ה-D-Link היה הכי יקר ומכיוון שעבדתי בעבר עם המכשירים והקושחות שלהם, החלטתי לקחת אותו.

הגעתי הביתה, פתחתי את האריזה, התחלתי לקרוא את ההוראות ו.. ההוראות באנגלית סופר קצרות ותמציתיות. על גבי האריזה עצמה ההוראות שונות – חבר את המכשיר לחשמל, לחץ על כפתור ה-WPS במכשיר, אחר כך לחץ על WPS בנתב שלך, ואחרי כמה שניות תקבל נורית ירוקה ופס LED שמציין טווח. ברכותיי – אתה מחובר.

זהו, שאצלי דברים כאלו כמובן לא יעבדו כי הנתב שלי לא נותן כתובות DHCP (את זה אחד משרתי הלינוקס נותנים או שרת ה-Windows, תלוי לאיזה רשת) כך שבמכשיר הסלולרי הופיעה בהרשת מהמכשיר של D-Link (עם שם SSID חדש) אבל כשמנסים לרשת הזו .. אין אינטרנט. סביר להניח שאצל לקוח רגיל, הדבר הזה היה עובד יפה. אצלי כמובן, לא. אז חיברתי את המכשיר דרך כניסת ה-Ethernet, הוא קיבל כתובת IP מה-DHCP, נכנסתי דרך ממשק ה-Web והתחלתי להגדיר דברים. הממשק עצמו – בהחלט מרשים ורוב הדברים שצריכים – מוגדרים דרך Wizard ראשוני, כמו שם רשת, האם מדובר בעבודה של Client או Repeater וכו' וכו'. למשתמש שקצת מבין, 5 דקות יספיקו להגדיר דברים.

אחרי שהגדרתי את הדברים והתחברתי עם המכשיר הסלולרי, החלטתי לבצע בדיקות של Speed test פה בארץ. התחברתי עם החיבור של 2.4 ג'יגהרץ. המכשיר עצמו, אגב, נמצא במרחק של מטר אחד מימיני. המהירות שקיבלתי ב-Speed test? כ-13 מגהביט Down. התחברתי לנתב הרגיל שלי ישירות בצורה אלחוטית ב-2.4 ג'יגהרץ והרצתי בדיקה שוב – קיבלתי 61 מגהביט. לא חשוב מה ניסיתי לשנות ב-D-Link, קיבלתי בין 11 ל-15 מגהביט Down. עברתי לחיבור ה-5 ג'יגהרץ שה-D-Link מציע, הרצתי בדיקת מהירות מחדש וקיבלתי .. 70 מגהביט! (אני מנוי בחבילת 100 מגהביט של בזק). ביצעתי שיחת וידאו עם ידידתי, והיא טוענת שאיכות הוידאו עכשיו הרבה יותר טובה. היאח הידד!

האם הייתי ממליץ על מכשיר כזה כמאריך WIFI טוב? כן, אבל. לא ניסיתי להתעמק בעניין תדר ה-2.4 ג'יגהרץ (הממשק דוגם את כל הערוצים כשנכנסים לתפריט ה-WIFI ורוצים לבחור ערוץ – הוא מראה את ה-Workload ואת ה-Bandwidth, אצלי כולם היו די פנויים) ויכול להיות שאצל אחרים לא תהיה בעיה כמו שקיימת אצלי, אבל מצד שני אני צריך שהמכשיר יכסה טווח קטן – חדר אחר עם 2-4 מכשירים בחיבור אלחוטי. כל השאר – שיתחברו לנתב WIFI הראשי כך שתדר 5 ג'יגהרץ בהחלט יכול להיות פתרון עבורי. נקודה חשובה – מכשיר זה לא מתאים לחדרי ממ"ד. אם יש חדר ממד ורוצים לחבר מכשירים סלולריים, תצטרכו לסלול כבל רשת לחדר ולחבר מכשיר כמו המכשיר הזה, או להעביר אינטרנט דרך החשמל בבית (גם לזה יש ל-D-Link מספר מוצרים בארץ)

לסיכום: האם מכשיר זה שווה 182 שקל? לא בטוח. מדובר בגירסה רוסית של המכשיר, אין לו שום עדכוני קושחה, וההוראות עצמן (חוץ משלושת העמודים הראשונים) שמגיעות עם המכשיר – ברוסית (אני משער שיש גירסה באנגלית באינטרנט). מהנסיון שלי עם D-Link המכשירים שלהם די טובים ואם אתה חובב מערכות לינוקס משובצות ובא לך לשחק, כמדומני שיש לך שם נקודות להחלמה של חוטים כדי לקבל USB Serial ודי קל לשנות את הלינוקס שבתוכו. בשאר המקרים, אני חושב שעדיף לחסוך כסף (50%) ולקנות את הפתרון של Edimax או TP-Link.

לינוס, ZFS וכמה נקודות בנושא

הכל התחיל במייל שכתב לינוס טורבאלד, ה"אבא" של ליבת לינוקס (אוקיי, יש כאלו שיתעקשו שנקרא לזה GNU/LINUX) – הוא התייחס לנקודה ישנה וקצת כואבת, שאי אפשר להכניס קוד של ZFS ללינוקס על ה-Kernel של לינוקס. הרשיונות לא ממש תואמים. (בעיה ידועה שאנשים מעשיים לא מתייחסים אליה כיום, למען האמת: אם לקוח מגיע אליי ומבקש ממני לבנות לו מפרט לשרת לצרכי AI, מטבע הדברים אני אכלול כרטיסים של nVidia אבל הדרייבר ל-NVIDIA הוא בינארי לחלוטין, האם לפסול את הכרטיסים בגלל שהדרייבר הוא כזה? כמובן שלא, כי הכרטיסים המתחרים מציעים בערך מחצית מהביצועים).

לינוס מוסיף בסוף המייל כי ZFS זה "באזז" והוא מבקש "אל תשתמש ב-ZFS".

זכותו המלאה, כמובן, של לינוס להביע את דעתו, אבל כדאי לפעמים שהוא קצת יעדכן את דעתו היקרה..

נתחיל מהמציאות הפשוטה: ZFS על לינוקס אינו פרויקט נסיוני. גם בגירסה הנוכחית (0.8.2 נכון לכתיבת שורות אלו) ובגירסה הקודמת (0.7.13) אין שום באג ידוע שגורם לקריסת מערכות. המערכת יציבה ונמצאת במקומות שונים פה בישראל ובעולם כמובן – בפרודקשן. לא מדובר באיזה פרויקט שמורכב מ-2 אנשים שמתחזקים אותה בשעות הפנאי שלהם ועושים טובה לאנושות שהם עונים לפוסטים/מיילים. יש לא מעט חברות מעורבות בפרויקט שתורמות קוד ותיקוני באגים נון סטופ, וזו אחת הסיבות שעמותת OpenZFS החליטה יחד עם כל החברות המשתתפות בפיתוח ZFS לפני שנתיים – להעביר את כל הקוד לגירסה חדשה שתיקרא OpenZFS ושתהיה מבוססת על ZFS for Linux עם כל השינויים שקיימים לפלטפורמות אחרות (BSD, Illumos, Mac OS וכו') כך שברגע שתצא גירסת OpenZFS 1.0 – היא תהיה תואמת לכל הפלטפורמות וכל קוד שיכנס יקומפל אוטומטית מול כל הפלטפורמות ואם הקוד לא רץ על אחת מהפלטפורמות, מגיש הקוד יצטרך לתקן זאת.

ZFS היא, בניגוד למערכות File systems אחרות בלינוקס – אינה רק file system, היא הרבה יותר, היא מייתרת את הצורך בהגדרות Partitions, מייתרת את הצורך בהגדרות ושימוש LVM, מפשטת תהליכים בשיתופים דרך NFS, iSCSi, CIFS/SMB, מאפשרת snapshots בצורה הרבה יותר טובה ממה ש-LVM נותן, הוא כולל מערכת Cache טובה וכשזה מגיע לתחזוקה שוטפת, זו המערכת היחידה שיודעת לעשות תהליך resilver (תהליך בו המערכת עוברת על כל המידע בסקטורים השונים בדיסק, בודקת אם הכל תקין ומה שהיא מוצאת לו תקין – היא מעתיקה למקומות אחרים תקינים, והכל ברקע), ויש ל-ZFS עוד פונקציות רבות שלא תיארתי ופונקציות בהחלט מעניינות שמפותחות בימים אלו, והכי חשוב – הכל רץ על לינוקס.

יש כאלו שיציינו שיש את BTRFS שזו מערכת מעולה. צר לי, היא לא כזו מעולה, גם כיום, בכל מה שקשור ל-RAID-5/6 ויש רק הפצה אחת שמתקינה אותה כברירת מחדל: SuSE. הפצות שמקובלות בגופים גדולים כמו RHEL, CentOS, Ubuntu או שלא כוללים תמיכה ל-BTRFS (כל מה שמבוסס על רד-האט) או שתצטרך לעבוד ידנית כדי להגדיר BTRFS. בהפצה כמו אובונטו 18 ומעלה, תצטרך לעבור חתיכת תהליך (בהצלחה עם זה, ואגב, והתהליך לא כולל שום שימוש בכל הפונקציות הרציניות של BTRFS כמו sub volumes במאמר) כדי לבנות מערכת עם BTRFS.

יש כמובן גם FIle systems אחרים כמו EXT4 ו-XFS שהן טובות, אבל כשיש בעיות כלשהן שהמערכת לא מוכנה לעבוד עם ה-Journaling – הסיוטים מתחילים (במיוחד ב-XFS. רק לפני מס' שבועות קיבלתי פניה מיצרן שרתים שהתקין ללקוח שלו מערכת SAP כשכל המערכת וה-DATA יושבים מקומית ולאחר כמה חודשים, המערכת קרסה. הוא ביקש ממני להציץ, והמצב מבחינת XFS היה כל כך קטסטרופלי, שההמלצה שלי היתה פשוטה: תפרמט ותשחזר מאפס מגיבוי) וכאן ל-ZFS יש יתרון בכך שהוא בודק אחת לשבוע או אחת לחודש (כפי שתגדיר ב-crontab) את תהליך ה-resilver ואפשר תמיד לראות את המצב עם פקודת zpool פשוטה.

אינני טוען ש-ZFS מתאים לכל שימוש. על מכונות וירטואליות, על מכונות דסקטופ/לאפטופ עם דיסק יחיד – אין ממש יתרון גדול ל-ZFS (חוץ מהפונקציונאלית של snapshots אם אתה רוצה לשדרג חבילות או את כל המערכת לגירסה חדשה ומעוניין לחזור אחורה אם יש בעיות, דבר שדי בעייתי לעשות עם LVM – במיוחד בהפצות כמו ubuntu, Debian ששם כברירת מחדל בהתקנה לא משתמשים ב-LVM) ויש בהחלט מקום ל-File systems כמו EXT4 או XFS.

לסיכום: ZFS זו מערכת רצינית שמצריכה מעט למידה של המושגים. הפצה כמו אובונטו 19 מאפשרת לך לראשונה להתקין מערכת לינוקס עם ZFS ב-root עם הצפנה, העברת snapshots מוצפנים, אבל חשוב לשים לב שזה נסיוני (בגלל זה החלוקה המוזרה לשני pools – התמיכה ב-GRUB2), יש קהילה משגשגת ויש גם חברות שמוכרות מוצרים ותמיכה ל-ZFS על לינוקס (והפצות אחרות). ZFS לא מתאימה לכולם ולא מתאימה לכל מצב, אך יחד עם זאת, ZFS זה לא buzz.

על Starlink שמעתם?

לכל מי שיש שרתים או תשתית שרתים/אחסון/תקשורת בחו"ל – מכיר את הבעיה הקשורה בהשהיה (Latency) – בשעה שהתקשורת בארץ פנימית היא יחסית מהירה, מישראל לחו"ל, ההשהיה בדרך כלל נעה סביב 3 ספרות, תלוי אם זה לאירופה, ארה"ב, אסיה וכו'. במקרים שיש צורך באתרים שיתנו שרות שקרוב גיאוגרפית לגולשים, משתמשים ב-CDN, אבל במקרים שצריך תקשורת ישירה – אתה מכיר את הבעיה של ההשהיה. הבעיה הנוספת קשורה למהירות תקשורת מכאן לעולם ולהיפך, וזה תלוי ב-QoS של ספק האינטרנט שלך, האם אתה משלם על חיבור וירטואלי יעודי מכאן לנקודה מסויימת בעולם ועוד ועוד.

אחת משיטות החיבור הידועות היתה חיבור לווייני לחברות. בעבר (שנות ה-90) ספקי האינטרנט בארץ לדוגמא היו מחוברים דרך לוויינים לחו"ל וכך סופק האינטרנט ללקוחות (עם השהיות פנטסיות של 300 מ"ש מינימום וקצב תעבורה של צב גוסס, הוותיקים זוכרים זאת) עד שקמו פה מספר חיבורים עם סיבים לאירופה, יוון וכו' (מד-1, בזק בינלאומי וכו'). חיבור לווייני עד היום היא האופציה שמשתמשים בה כחיבור גיבוי במקרים, לא כחיבור עיקרי. המקרים בהם משתמשים בכך לחיבור עיקרי היא כשאין שום אפשרות לחיבור קווי או סלולרי כלשהו (מקומות נידחים, ב-ים, מטוסים ועוד) וחיבור כזה הוא יחסית טוב לדברים כמו גלישה באתרים, אבל לחלוטין לא לדברים שקשורים ב-Real Time (שיחות וידאו, צפיה בסרטים/קליפים וכו') מה גם שהחיבורים האלו נקראים Measured, כלומר אתה לא משלם על רוחב הפס אלא על כמות התעבורה ממך ואליך, והחיבורים הללו יקרים מאוד (קחו, תציצו, הם עדיין מודדים לפי Bytes!) כך שצפיה בוידאו ב-4K עלולה לסכן את כרטיס האשראי שלך..

מכאן נעבור לחברת SpaceX. החברה הראשונה שהחליטו לפתח את נושא הטיסה לחלל והעברת מטענים,אנשים ו"הקפצת" לוויינים – הרבה מעבר לאחרים. הם החברה הראשונה שהכניסו את המושג שנקרא "מיחזור" לתחום, שברה את השוק מבחינת מחירים והם הראשונים גם לפתח חלליות זולות במיוחד (Starship) באופן פתוח (פיזית פתוח – אתה יכול להוציא מצלמה ולצלם מהכביש) ולנסות טכנולוגיות ופיתוחים חדשים כדי להוזיל כמה שיותר את עלויות ההטסה והשיגור, עם כמה שיותר מטען.

מכיוון של-SpaceX יש הרבה מאוד שאיפות לדברים שפשוט לא קיימים כיום, החברה מחפשת כל מיני דרכים להרוויח כספים, וב-2015 הכריז מייסד החברה, אלון מאסק, על משהו חדש – לוויינים קטנים שישהו בגובה נמוך (550 קילומטר) ושאיתם החברה תקים MESH לאספקת שרותי אינטרנט במחירים הרבה יותר נמוכים ממה שקיימים כיום בשוק (הכוונה מ-לוויינים, לא ממש להתחרות באינטרנט הקווי). לשם כך החברה ביקשה וקיבלה אישור להציב במסלול כדור הארץ הנמוך עד כ-42,000 לוויינים קטנים במשך 8 השנים הקרובות. סביר להניח שהכמות לוויינים ש-SpaceX תשגר יהיה נמוך יותר ותלוי בצריכה, כמות משתמשים, רוחב פס וכו'. השרות החדש נקרא Starlink.

המטרה העיקרית של Starlink היא לתת לכל אדם אפשרות לגלוש מכל מקום בעולם במחיר נמוך ועם השהיה נמוכה בכך שהלווינים נמצאים במסלולים מסויימים ומקשרים בין אחד לשני ועם נקודות בקרקע וכן עם טרמינלים של משתמשים. על מנת להסביר באופן ויזואלי יותר איך זה הולך לקרות (נכון ללפני מס' ימים, סביר להניח שיהיו מספר שינויים בהמשך, כמו שידור לייזר בין לוויינים, דבר ש-SpaceX עובדים עליו עדיין) וכמה ההשהיה הולכת להתקצר, יצר פרופסור מארק הודלי המחשה ויזואלית של הדברים. קחו לכם 10 דקות לצפות בקליפ הבא:

עד כה שיגרה SpaceX כ-120 לוויינים קטנים והחברה מתכננת לשגר כל שבועיים עוד 60 לוויינים (כולם מריצים לינוקס, אגב. חבילה של 60 לוויינים נראית בתמונה משמאל, לחצו להגדלה). ההערכה היא כי המערכת תהיה זמינה Online לתושבי ארה"ב תחילה – בסוף שנת 2020 עם זמינות מוגבלת לאזורים מסויימים. אלו שירצו להתחבר, יצטרכו לקנות ציוד במחיר נמוך (הם מדברים על $200, סביר להניח שזה יטפס לכיוון ה-$400-500 והמחיר ירד מאוחר יותר).

הראשונים שהחליטו לקפוץ על העגלה ולנסות את המערכת היו .. חיל האוויר האמריקאי. הם שילמו ל-SpaceX סכום של 28 מיליון דולר כדי להתנסות במערכת. הניסוי היה לחבר Starlink למטוס ולמדוד קצב. הם לא יכולים לפרסם את ה-Latency אולם הם ציינו שהם הופתעו מה-Latency הנמוך ומהירות ה-DATA שהם קיבלו היא 610 מגהביט לשניה. כמו תמיד, חיל האויר האמריקאי לא מתחייב לאקסלוסיביות עם SpaceX והם רוכשים שרותים גם מהמתחרים על מנת שלא ליצור תלות בספק זה או אחר.

סביר להניח שברגע שהמערכת תהיה זמינה Online והשרות ינתן גם מחוץ לארה"ב (אירופה, אנגליה) – חברות HFT (כלומר High Frequency Trading) ירצו לראות מספרים ואם הם יאהבו את המספרים מבחינת תעבורה והשהיה – הם יבקשו לקנות "קווים" בין יבשות ומדינות ו-SpaceX תבקש מהם מחיר מפולפל וסופר רווחי על השרותים הללו (מי שיכול להציע Latency יותר נמוך מהמצב הקיים כיום, יכול להתעשר מהר מאוד!)

ומה איתנו כאן? סביר להניח ש-SpaceX תציע שרותים בסביבות 2022-2023 לאזורנו, אבל בשביל להתחבר נצטרך שמשרד התקשורת יבדוק את הדברים ויאשר, ספקי התקשורת בארץ יצווחו "געוואלד" ויקח זמן עד שיתקבל אישור לייבא טרמינלים לחבר ללקוחות פרטיים וחברות. אגב, מבחינת מהירות חיבור – Starlink מדברים על – עד 1 ג'יגהביט. מה שעדיין לא ידוע – האם החיבור יהיה Metered (כלומר תשלם לפי כמות מידע) או לא. אני מהמר שזה יהיה לפי חבילות.

מבחינת תחרות – חברת OneWeb ואמזון רוצים בדיוק להיכנס לשוק הזה וגם הם רוצים להציב לוויינים קטנים במסלול נמוך (LEO – Low Earth Orbit). עד כה, אף אחת מהמתחרות לא שיגרה אפילו לוויין אחד לאותו מסלול.

לסיכום: אין ספק כי בשנים הקרובות אנחנו נראה שרותי אינטרנט חדשים מבוססי לוויין בגובה נמוך עם Latency נמוך. האם זה מתאים לגולשים ביתיים? רק אם אין אלטרנטיבות קוויות/סלולריות טובות. שרות כזה כאן בארץ יכול להתאים לעסקים ולהטמעות במקומות מבודדים ולאלו שצריכים Upload יותר גבוה ממה שניתן בארץ ובמחיר הרבה יותר שפוי ממה שהספקיות מבקשות (בגלל זה ה"געוואלד"). בארה"ב, אפריקה ומקומות אחרים ששרות אינטרנט קיים רק בנקודות מסויימות ובקצבים מאוד איטיים – שרות כזה בהחלט יכול להתאים.

כמה מילים על המק-פרו החדש

בשעה טובה, אפל החלה למכור את מחשב ה-Mac Pro שלו ציפו אנשי מקצוע רבים. עד כה, אפל הסתפקו בלמכור מחשבים ניידים שהיו יחסית די טובים, אבל הביצועים שלהם – לא בדיוק משהו לרוץ ולהתגאות בו (זה השתנה בגירסת המקבוק פרו 16 אינטש).

מחשב הדסקטופ האחרון שאפל הוציאו (מה שרבים קראו לו – Trash can עקב צורתו) היה יותר פתרון Stop Gap. כמות ההרחבות שהיה ניתן להכניס באותו מחשב היתה מזערית – או דרך Thunderbolt או דרך USB 2. ניתן היה להחליף כרטיסי GPU אולם לא היה למה להחליף (אפל פשוט לא בנו משהו אחר ואפל עדיין ב"ברוגז" עם nVidia, אז תשכחו מפתרונות שעוקפים בביצועים את הפתרונות של AMD) ובקיצור – שש שנים שאפל לא הוציאו מחשב דסקטופ מקצועי למקצוענים.

עד שהגיע המק-פרו.

כפרילאנסר שאחד התחביבים העיקרים שלו הוא לחטט ולהכיר כל מה שאפשרי במחשבים (לא חשוב איזה) אני חייב לציין שהמהנדסים באפל עשו עבודה מאוד משמעותית ומה שיותר חשוב, מאוד מקצועית.

אחד הדברים הראשונים שאפשר לראות כשפותחים את המק פרו, זה הלוח אם, ואפל לא רק שלא העתיקו מאף אחד, הם פשוט התחילו מאפס והם עשו שם מספר דברים מעולים:

  • הם התחילו בשינוי מיקום הזכרונות. אין יותר זכרונות בשני צידי המעבד, הכל נמצא במקום אחד (בצידו השני של המק, רעיון מקורי!), עם מדבקות מסודרות שמראות היכן להכניס מקלות זכרון (נו, זה Xeon) וכיסוי (שמקבל איוורור). שינוי כזה מחייב הוספת שכבות שמייקרים את לוח האם, אפל מק-פרו בין כה לא נמכר בזול, אפל הכניסו זאת במחיר הסופי.
  • שינוי מהותי בתפיסת קירור כל החלקים במחשב. לא עוד מאווררים שמתאימים לשרתים שמרעישים בעת עומסים רציניים, אין צורך במאווררים לכל GPU וכו'. שלושה מאווררים גדולים ושקטים מקדימה (בתצורת Pull) ואחד מאחורה (בתצורת Push). הבעיה היחידה: אין שום פילטרים, המחשבים הללו הולכים לאכסן כמות לא קטנה של אבק שקשה לנקות מכרטיסי ה-GPU.
  • כל תושבות ה-PCIe "הפכו צד" והם נמצאים עתה בצידו הימני של לוח האם. בדרך אפל החליטו גם להוסיף חיבור MPX – במקום לחבר שני כבלים של חשמל מספק הכח, כרטיסי ה-GPU יקבלו את החשמל דרך לוח האם, גם זה מייקר את לוח האם, עוד שכבות…
  • אפל הוסיפו משהו יחודי ונחמד – מתג נעילה של תושבות ה-PCIe. ב-PC רגיל, אתה נועל את הכרטיס עם ברגים, אפל לא אוהבת ברגי פיליפס לנעילת כרטיסים.
  • שני כניסות Ethernet של 10 ג'יגהביט.
  • שבב PLX להכפלת כמות נתיבי ה-PCIe (והם לקחו את שבב מתגי ה-PCIe היקר!)
  • כרטיס After Burner להאצת עיבוד וידאו מ-4K ומעלה בקידודי Pro res שונים (לא ממש עוזר למשתמשי מצלמות RED, אלא אם מצלמים באותו Codec).

החסרונות:

  • תצורה מיוחדת לכרטיסי ה-GPU – כפי שציינתי, הם מקבלים חשמל מלוח האם ולא דרך כבלים עם חיבורים של 8 פינים. החסרון המשמעותי: שום כרטיס GPU מעולם ה-PC לא יעבוד עם מק פרו מכיוון שאין לך מאיפה לקבל תוספת חשמל לכרטיסי ה-GPU.
  • כמות יציאות Thunderbolt קטנה, די מפתיע למען האמת.
  • מקלות SSD יעודיים של אפל שנעולים פר מק-פרו. לא ניתן להעביר אותם למחשבי מק אחרים אם יש תקלה במק-פרו אחד ורוצים להשתמש במק-פרו אחר.

ואז אנחנו מגיעים לנקודה של המחיר: אפל לא מנסה להתחרות מול תחנות עבודה של היצרנים השונים, היא "כורה" נישה לעצמה, והמחיר בהתאם. גלגלים למחשב עולים $400 ומקלות זכרון עולים בין 600 ל-800 דולר יותר מזכרון ECC רגיל שניתן לרכוש מכל מקום, מקלות ה-SSD נמכרים במחירים של SSD ל-Enterprise (אם כי לזה יש הצדקה מסויימת, הם כוללים בקר קנייני של אפל ושבבי Flash נבחרים של סמסונג והביצועים שלהם באמת גבוהים) ומחשבים כאלו דורשים את חבילת ה-Apple Care Plus. אפל, בזמן ההצגה הראשונית של המחשב בכנס WWDC הראתה שהמחשב יהיה יותר זול מהמתחרים – אבל הוא בפירוש לא.

האם שווה לרכוש את המק-פרו? הבחירה פשוטה: אם אתה "נעול" על Mac OS, אתה רוצה תחנת עבודה ולא מחשב נייד, והמחשב משמש כל היום לעבודות ומכניס כספים – אז בהחלט, זו השקעה שווה. אם לעומת זאת אתה משתמש בפרמייר או ב-Davinci Resolve או ב-AVID על PC, התשובה היא "לא": AMD הוציאה לאחרונה את ה-Threadripper 3970X שעוקף בביצועים כל Xeon של אינטל (ועולה מחצית ממחיר המעבד Xeon עם מקסימום ליבות מ-אינטל), יחד עם כרטיס RTX 2080 – אתה תקבל ביצועים יותר גבוהים (כרטיס ה-After Burner ב-מק פרו בא לענות על חולשות ביצועים בכרטיסי ה-GPU של AMD בכל הקשור לוידאו).

לסיכום: אפל הוציאו תחנת עבודה מעולה ויקרה להחריד, ובאולפני עריכה משופעים בכספים היא בהחלט תתקבל בברכה. יחד עם זאת, אם באותם מקומות משתמשים בתחנות עבודה PC, יש אלטרנטיבות יותר זולות עם ביצועים יותר גבוהים.

על לאפטופים,חיישנים של אינטל – ולינוקס

שוק הלאפטופים בעולם נשלט על ידי אינטל ועל ידי מספר יצרנים שמכניסים בשמחה כל פיתוח חדש לתוך הלאפטופים על מנת לתת למשתמש חוויית שימושיות טובה. כך, לדוגמא, בלאפטופים שיצאו בשנה הקרובה תהיה חיבוריות Thunderbolt (המאפשרת חיבור ציוד חיצוני שדורש רוחב פס גבוה – כמו כרטיסי GPU, כרטיסי SSD NVME מהירים ועוד) הואיל ואינטל משלבת במעבדים החדשים שלה למחשבים ניידים (דור 10) את ה-Thunderbolt.

אבל לפעמים, עם כל שילובי הטכנולוגיה, יש בעיה בקשר לתמיכת הציוד במערכות הפעלה אלטרנטיביות כמו הפצות לינוקס שונות. אינטל, כיצרנית מעבד ו-Chipset עושה מאמצים כדי לתמוך בלינוקס ובדרך כלל מחשב נייד חדש ומודרני, כשיתקינו עליו הפצת לינוקס כמו גירסת Fedora או אובונטו אחרונים – רוב הציוד יתמך ישר מהקופסא. בדרך כלל הציוד שלא יתמך – הוא הציוד שיצרן הלאפטופ הוסיף ללוח האם של אותו מחשב נייד. כך לדוגמא יש בעייתיות תמיכה בחלק מקוראי טביעות אצבע או מצלמות אינפרה-אדום (מצלמות ה-Windows Hello). בדרך כלל יהיו כאלו מקהילת מפתחי הלינוקס שיוסיפו תמיכה, אבל לוקח זמן עד שזה נכנס להפצות הלינוקס בגרסאות השונות.

אחת הטכנולוגיות שאינטל הוסיפה בשנתיים פלוס האחרונות היא טכנולוגיות ה-Dynamic Power & Thermal Framework (או DPTF בקיצור). עם טכנולוגיה זו, אינטל משלבת חיישנים בתוך השבבים שלה שידעו לגלות באיזה מצב המחשב הנייד נמצא: האם הוא על השולחן (מצב Desk) או שהוא נמצא על הברכיים שלך (מצב Lap). אם אתה עובד על המחשב הנייד והוא נמצא על ברכיך, המחשב הנייד יוריד את ביצועי המעבד באופן משמעותי כך שבתקרת הביצועים צריכת החשמל של המעבד תהיה 15 וואט. אם הוא על השולחן, המעבד יוכל לרוץ עד מקסימום ביצועים ויצרוך מקסימלית 51 וואט (הכל כמובן בהתאם לקירור ולאיך שהיצרן בנה את הלאפטופ. בחלק מהלאפטופים אם המעבד יעבוד במקסימום מהירות – אתה תשמע רעש חזק מהמאווררים). הנה תמונה שאולי תעזור להבהיר את המצב:

הבעיה עם DPTF פשוטה: אינטל ישמה את הפתרון בלינוקס, אבל רק לכרומבוקים, וגם אז רק לחלק מהמעבדים הישנים (דור 7 וחלק מ-8). כיום בלינוקס – ה-DPTF כלל לא נתמך בלינוקס. בחלק מהמחשבים הניידים ניתן לבטל את פונקציית ה-DPTF, אבל במחשבים של לנובו לדוגמא – אי אפשר לבטל את המצב, כך שהמהירות המקסימלית שהמעבד במחשב ירוץ תהיה בסביבות ה-1.0-2.0 ג'יגהרץ, רחוק מאוד ממהירות ה-4.2-4.3 ג'יגהרץ (תלוי במחשב הנייד ובמעבד) שהמעבד יכול להגיע. לנובו הודיעה ש"בעתיד" היא תוציא קושחה ללינוקס שתאפשר ביטול DPTF, אבל בשלב זה, אם יש לך מחשב נייד מהסדרות כמו Yoga או Thinkpad, יש מצב שתקבל רק חצי או שליש מכח העיבוד אם אתה מריץ לינוקס על הלאפטופ. ב-Windows, אגב, הכל רץ בצורה תקינה.

אחד הדברים שהכי קשה לעשות – זה לשכנע חברות לכתוב דרייברים עבור לינוקס בכל מה שקשור לדסקטופים או לאפטופים, מכיוון שאין ממש מספרים שמראים כמות רכישת מחשבים נייחים/ניידים עם לינוקס. אם ניקח לדוגמא את משפחת ה-Thinkpad של לנובו, ברוב המקרים משתמש הלינוקס שכן ירכוש Thinkpad, הוא יהיה מספיק חכם כדי להתקין בעצמו לינוקס על הלאפטופ מבלי להזדקק ל"טובות" של לנובו. (בשרתים כמובן המצב בדיוק הפוך – שום חברה לא מעזה לשחרר ציוד כלשהו בלי שתהיה תמיכה ללינוקס), כך שהדרך היחידה היא לגגל ציוד שלא נתמך בלאפטופ שלך, לראות אם מישהו התחיל לעשות Reverse Engineering לפרוטוקול של ציוד, אם כתבו איזה דרייבר ואם דרושה עזרה שאתה יכול לעזור בה.

ישנו "טרנד" חדש בו ניתן לרכוש מחשבים ניידים עם לינוקס מותקן עליו (בדרך של אובונטו של קנוניקל) ואותה הפצת לינוקס מקבלת דרייברים ו"אופטימיזציה". אני יכול לאמר לכם שאני משתמש ב-Thinkpad T480s ש"נתמך" בהפצת אובונטו שמשוחררת עבור יצרני הלאפטופים, אבל ציוד כמו קורא טביעות-אצבע שרשום באתר של קנוניקל כ"נתמך" – כלל אינו נתמך ואין לו דרייבר חיצוני. בקיצור – עדיף לרכוש לאפטופ (אם אתם רוצים, במקרים רבים אפשר לרכוש אותו עם FreeDOS כך שלא יהיה צורך לשלם את ה"מס" של מיקרוסופט) ולהתקין עליו הפצת לינוקס מודרנית.

לסיכום: אני מעריך את אינטל שמשקיעה בכתיבת דרייברים ללינוקס ולשילובם ב-Kernel, אבל עם DPTF אינטל די "פישלה" (אגב, ישנם כל מיני "דרייברים" ל-DPTF שתוכלו למצוא להפצות לינוקס שונות, אבל הדבר היחיד שמצאתי שהם עושים – זה שהם לא מאפשרים למעבד לעבור את ה-85 מעלות צלזיוס, הביצועים נשארים נמוכים) ולצערי לא מצאתי עם מי ניתן לשוחח על מנת שאינטל תוכל לטפל בדברים ולתקן. יחד עם זאת, בהשוואה למצב מלפני עשור – רוב הציוד בלאפטופים ודסקטופים נתמך יפה מאוד בלינוקס "ישר מהקופסא".

שימוש ב-NVME SSD RAID לעריכת וידאו מקצועי

במשך שנים רבות צלמי וידאו עובדים בשיטות שונות על מנת לצלם וידאו, לערוך, לקודד ולשחרר אותו. בדרך כלל הוידאו יוקלט ישירות לכרטיס SD, או XQD או כרטיס אחר, לאחר מכן הכרטיס יועבר אחר כבוד למחשב נייד/נייח והתוכן יועתק בעזרת קורא כרטיסים אל הדיסק הקשיח במחשב או אל דיסק קשיח/SSD חיצוני המחובר למחשב. משם תבוצע עריכה, קידוד והעברת החומר המוכן ליעדו.

בחלק מהמקרים, אצל עורכים יותר מקצועיים, קיים מכשיר DAS המחובר דרך SFF-8087 או דרך Thunderbolt למחשב. המכשיר מכיל מספר דיסקים מכניים והעריכה נעשית ישירות מול אותו מכשיר בסטודיו של העורך. היתרון בשיטה זו – אין צורך בערימת SSD חיצוניים פר צילום/פרויקט, מספיק אחד כדי להעביר את הוידאו מהשטח (אם צלם חיצוני או חברת צילום חיצונית מצלמת והעורך הוא מישהו אחר שיושב במקום אחר) אל מכשיר ה-DAS.

הבעיה הגדולה כיום היא שקבצי וידאו הולכים וגדלים גם במצלמות סמי מקצועיות. מצלמות כמו GH5 או Sony A7 R4 ומצלמות מקצועיות כמו Canon C300, או RED או ARRI למיניהן – מקליטות וידאו באיכות יותר ויותר גבוהה וכל שניה של וידאו תופסת יותר ויותר שטח, ואנחנו מדברים רק על וידאו, לא אודיו, לא Assets, לא אפקטים ושום דבר אחר, כך שמגיע מצב שגם SSD חיצוני טוב מתחיל להיות איטי – והמצב לא הולך להשתפר (נכון, קיים קידוד H.265 HEVC, אבל לא מומלץ להקליט איתו וידאו כי קידוד כזה יותר מתאים ל-Delivery מאשר לעריכה). הבעיה מתגלית בחומרתה לא רק בזמן ה"טיול" ב-Timeline, אלא במיוחד בקידוד הוידאו – ה-Encoder יסיים את הקידוד אך יקח עוד דקות ארוכות עד שהתהליך יסתיים מכיוון שצריך להעתיק את הנתונים מהמחשב המקומי ל-DAS (כן, גם אם בחרת לקודד ישירות ל-DAS, המחשב קודם מבצע את הפעילות בדיסק המקומי).

אחד הפתרונות הטובים הקיימים לבעיה כזו הוא שימוש ב-RAID NVME. זהו כרטיס ריק שלתוכו אנחנו מכניסים מקלות SSD NVME בחיבור M.2. עד 4 כרטיסים כאשר כל כרטיס מגיע עד גודל 2 טרהבייט. את הכרטיס נגדיר כ-RAID-0.

מטרת ה-RAID אינה ליצור אמצעי אחסון קבוע לתוכן המדיה שאנחנו רוצים לערוך ולקודד, אלא לשמש כאמצעי אחסון מקומי שאליו אנחנו נעתיק את הפרויקט מהמקום הרגיל שבו אנחנו מאחסנים פרויקטים (DAS לדוגמא), ובתוכנות העריכה שאנחנו נשתמש, אנחנו נפתח את הקבצים מאותו RAID מקומי. לאחר שסיימנו עם הפרויקט, אנחנו נזיז את הפרויקט מה-RAID המקומי בחזרה אל ה-DAS.

היתרון בשיטה זו הוא עצום. לא חשוב איזה חיבור יש לך לאחסון חיצוני גדול (סטורג', DAS) – ה-RAID המדובר נותן ביצועי מהירות של עד 15 ג'יגהבייט לשניה. סתם לשם השווה: אם יש לך DAS של 4 דיסקים, תקבל אולי מהירות של 800 מגהבייט לשניה, כך שההבדל התיאורתי במהירות הוא כמעט פי 20.

ה-RAID שאני מתאר יכול להיות עד גודל 8 טרהבייט, אבל כל מי שקנה פעם SSD NVME M.2 יוכל לאמר לכם שמחירי המקלות לא זולים. התשובה לכך פשוטה: לא חייבים ישר לרוץ ולרכוש את המקלות של 2 טרהבייט פר מקל. אפשר לדוגמא להתחיל עם מקלות SSD של סמסונג מסידרה 970 Evo Plus בגודל חצי טרהבייט. כל מקל כזה עולה 600 שקלים ב-KSP/IVORY, והכרטיס לעיל עולה 250 שקלים כולל משלוח מאמזון. ההרכבה וההגדרות די פשוטות, אולם צריך מחשב נייח די עדכני ודי חזק עם לפחות 2 כניסות PCIe 3 X16 ותמיכה ב-BIOS ב-PCI bifurcation. אם המחשב הנייח שלך הוא בן שנתיים-שלוש ויש לו 6-8 ליבות, סביר להניח שתוכל להטמיע פתרון כזה. אני מקווה בשבועות הקרובים להעלות וידאו כיצד להגדיר זאת.

פתרון זה, כמו שציינתי, הוא למחשב נייח/תחנת עבודה. מה עם מחשבים ניידים? לצערי חיבור Thunderbolt 3 לא מספק מספיק רוחב פס לעשות את הטריק הזה. (ה-RAID הזה משתמש בכל רוחב הפס של PCIe 3.0 X16).

משהו חשוב: ה-RAID הזה לא מחליף אחסון מקומי למערכת הפעלה (אלא אם יש לכם מחשב נייח עם מעבדי Skylake X או מעבדי Threadripper), כך שאם יש לכם מעבד 6-8 ליבות מהדור השביעי ומעלה, עדיין תצטרכו את הדיסק הקשיח המקומי או SSD המקומי שיש לכם במחשב על מנת לעבוד עם מערכת ההפעלה והאפליקציות.

לסיכום: השיטה שהצגתי קצת לא קונבציונאלית, אבל היא יכולה לעזור רבות כשיש תוכן רב שנמדד בטרה בייטים של מידע לפרויקט אחד. השיטה לא מאיצה את מהירות הקידוד, אך היא בהחלט מאיצה את זמן הגישה לקבצים ולנקודות זמן השונות בוידאו/אודיו/תכנים אחרים. אפשר להתחיל בקטן ולגדול בהמשך, ולא צריך תוכנות מיוחדות בשביל להקים זאת.

סקירה: DJI Osmo Pocket

רכשתי לפני זמן מה עבור אחד הפרויקטים הנסיוניים שלי את ה-DJI Osmo Pocket ואת ה-DJI Osmo Action. כרגע אינני יכול להרחיב לגבי הפרויקטים ולכן פוסט זה ידבר על ה-Pocket.

ה-Pocket היא מצלמה חדשה בשוק שמצטרפת לשוק ה-Extreme, למצלמות המיועדות לצילום רכיבות אופניים, גלישה בים ודברים רבים נוספים. בניגוד למתחרים, יש לה ראש מסתובב של 270 מעלות והיא יודעת לעקוב אחרי אובייקטים שהיא מזהה או שמגדירים לה. היא מצלמת ברזולוציות עד 4K ועד 60 פריימים לשניה באיכות של 100 מגהביט, ולמקצועיים – היא מאפשרת צילום עם Cinelike-D ל-Color Grading ויש לה יציבות מרשימה בזמן הצילומים (אין רעידות) – כלומר בכל מה שקשור לצילום וידאו, היא עושה פחות או יותר מה ש-Go Pro ומה ש-Osmo Action עושים, רק שאין צורך ב-Gimble כדי לקבל את כל התנועתיות ומעקבים. היא קטנה מאוד ונכנסת לכף היד.

מבחינת ממשק משתמש, ישנן 2 צורות לנהל ולהגדיר את המצלמה: דרך המסך הקטן (שקצת בעייתי למי שיש אצבעות גדולות) ודרך חיבור המכשיר לטלפון סלולרי. לצערי אין דרך לנהל את המצלמה דרך PC או מק.

ניהול דרך המסך הקטן נותן לך את האפשרויות הבסיסיות: בחירת רזולוציה, מעקב אחרי המצולם, צילום סטילס, וידאו, ועוד ועוד – הדברים היחסית בסיסיים. אם רוצים יותר מכך, אז יש צורך להתקין את תוכנת DJI MIMO על הטלפון הסלולרי שלך, לחבר דרך חיבור מיוחד (המסופק) את המצלמה לטלפון הסלולרי שלך ולהגדיר כל דבר אפשרי, החל מהרמה הבסיסית ועד מהירות צמצם, ISO, EV ועוד ועוד. לא חסרות אפשרויות הן לצלם המתחיל והן לצלם המקצועי שמבין במושגים ובתחום. האפליקציה בטלפון הסלולרי מאפשרת לך לראות "שידור חי" ולצלם ישירות מהטלפון הסלולרי (כל עוד המצלמה מחוברת) – שזה כמובן הרבה יותר נוח מלהסתכל על מסך בגודל של 2 ס"מ בערך. אפשר כמובן גם להגדיר דברים בטלפון הסלולרי כשהמצלמה מחוברת, ולאחר מכן לנתק את הטלפון מהמצלמה ולהתחיל לצלם מהמצלמה, ההגדרות יזכרו.

מבחינת אחסון – המצלמה משתמשת בכרטיסי מיקרו SD, ואם רוצים להקליט וידאו ברזולוציית 4K עם 60 פריימים לשניה – ניתן להשתמש בכרטיסים גדולים של 256 ג'יגהבייט.

האם מצלמה כזו יכולה להחליף מצלמות DSLR (כל פורמט)? לא. אחד החסרונות של ציוד צילום לטיולים הוא חסרון העומק. המצלמה עובדת כ-Fixed, כלומר אין אפשרות להתקרב או להתרחק מהמצולם, אלא אם תעשה זאת פיזית, כך שדברים כמו אפקט בוקה (רקע מטושטש בכוונה) לא אפשריים במצלמה כזו.

לאחר שהשתמשתי במצלמה ושיחקתי איתה, אני יכול לאמר מספר דברים:

היתרונות:

  • היא מעולה לצילום וידאו – כל עוד יש תאורה כלשהי, בתאורה ביתית רגילה היא לא ממש מרשימה אלא אם יש לך תאורה טבעית מבחוץ או שהדלקת מספר נורות נוספות.
  • קל לתפעל אותה – לחץ על הכפתור השחור להפעלה, לחץ על הכפתור האדום להקלטה ובסיום ההקלטה לחץ שוב על הכפתור האדום. המצלמה מספיק אוטומטית כדי להגדיר דברים בסיסיים ורוב הפונקציות הבסיסיות זמינות במסך הקטן ללא צורך לחבר בכל פעם את הטלפון הסלולרי.
  • פונקציית מעקב אחר מצולם היא לא רעה בכלל, כל עוד אין דברים עם צבעים קרובים שדומים למצולם – אם אתה מצלם חתול ג'ינג'י ליד עצים, המעקב במצלמה יתחרפן.
  • כמעט ואין צורך מקום מיוחד בשבילה, היא יכולה להיכנס (לא כולל הראש) בכף ידו של אדם בוגר.
  • יש לה ברשת עשרות Accessories לחבר אותה לכל דבר שניתן להעלות על הדעת – החל מחצובה, לתיק גב, לקסדה, לחזה ועוד. יש גם עדשות ND לרכישה לימים שבהם השמש מקשה על צילומים.
  • המחיר שלה כיום בארץ הוא זול – 1549 שקל ב-IVORY או KSP וזה יוצא יותר זול מלרכוש מאמזון (תוסיף על כך מכס ומסים).

החסרונות:

  • היא מתחממת – לא חום שלא ניתן להחזיק ביד, אבל היא בהחלט מתחממת, במיוחד בצילומי וידאו 4K ב-60 פריימים.
  • היא לא ממש מתאימה לצילומי סטילס. אם יש לך טלפון מהקצה הגבוה (אייפון 10 לגרסאותיו, פיקסל 3/3A, גלקסי Note 9, סמסונג 10 לגרסאותיו, One Plus 6T ומעלה ועוד ועוד) – עדיף יהיה לך לשלוף את הטלפון הסלולרי שלך ולצלם.
  • קשה להגדיר מעקב דרך המצלמה בלבד. יש 3 מצבים שלעיתים מבלבלים.
  • לא ניתן להחליף סוללה, והסוללה המובנית קטנה (אבל אפשר לחבר אותה למטען נייד ולהמשיך לעבוד).
  • אין לה יציאת HDMI החוצה.
  • המסך עבור הרבה אנשים – קטן מדי.
  • המיקרופון שלה גרוע ואין לה רמקול. רוצה להקליט אודיו? רכוש את המתאם ל-3.5 מ"מ של DJI (רק הוא עובד עם המצלמה) וחבר מיקרופון חיצוני (דש או אחר).

לסיכום: DJI הוציאו מכשיר חדש שמשלב גם מצלמת אקסטרים וגם Gimble לצילום חלק בחוץ. זו נישה חדשה ו-DJI מנסה את השוק. המכשיר ללא ספק – הוא דור ראשון. מה ש-DJI צריכה לעשות לדעתי, זה לשנות כמה דברים מאוד מהותיים: החלפה לסוללה נשלפת והרבה יותר גדולה, החלפת מיקרופונים, אפשרות צפיה גם ללא כבל בטלפון הסלולרי, הגדלת המכשיר ואולי אפילו אפשרות להחליף עדשות, להגדיל את כמות הפריימים לשניה שהיא מסוגלת להקליט (זה יהיה כרוך בהחלפת מעבד והגדלת המכשיר עצמו).

האם הייתי ממליץ לרכוש אותה? למי שמרבה לטייל, הייתי ממליץ לרכוש אותה אולי כמצלמה נוספת. אם מצד שני אתה הולך לטיול שבת רגלי או טיולים די קצרים, ה-Pocket בהחלט יכולה לעניין אותך. גם לאלו שאוהבים צילומים מאולתרים אני יכול להמליץ אותה כי היא קטנה וניתן לשלב אותה ב-1001 דרכים. צפו לדוגמא בקליפ הבא וראו איך הצלם המוכשר מצלם פרסומת לבית של 20 מיליון דולר עם ה-Pocket בלבד.

נקודות לגבי שרתים לבניה עצמית

אמרה ישנה שמגיעה מ-וודי אלן אומרת: "אם אתה רוצה להצחיק את אלוהים, ספר לו על התוכניות שלך".

כפי שכתבתי בפוסט קודם בסידרת ה-My Labs: אני מעדיף לבנות את ה-LAB שלי בעזרת מחשבים עם מעבדי דסקטופ של AMD מסידרת Ryzen 7 2700. יש לך 8 ליבות ו-16 נימים, עד 64 ג'יגהבייט זכרון, ו-2-3 מכונות כאלו אמורות להספיק לכל LAB קטן..

אמורות.. חשבתי לעצמי..

ואז הגיעו כמה הצעות מעניינות. מצד אחד הרעיון שלי לגבי VDI זול (שמצריך מעבדים כמו Xeon E5 V4), או בקשות לגבי בניית סטורג' מבוסס 100 דיסקים 3.5", בקשות לגבי סטורג' משולב במתודת Scale Out, וירטואליזציה HCI במחיר זול, הקשחת חומרה, וגם בקשות כמו ניטור אפליקציות שונות ב-Scale out ב-Scaling של כמה עשרות Nodes אך לא במובן של אם "זה רץ", אלא מה ההשפעה מבחינת Latency, זמנים וכו'.

המכנה המשותף לרוב הדברים שכתבתי לעיל? אף אחד לא מממן אותך כמעט בכלום, אולי עוזרים לך להשיג ציוד מסוים אבל לא יותר מכך. הכל צריך לבוא במימון משלך ואם אתה מצליח להשיג תוצאות מרשימות – נכנסים למו"מ על מחירים, שעות, ציוד שהלקוח ירכוש וכו', כך שבשלב הראשון, אני צריך להיות יצירתי ברכישת ציוד ובנייתו. לא יותר פשוט לעשות זאת בענן? לא, כי חלק מהדברים מצריכים חומרה יעודית, וענן עולה כסף, גם כשהמכונות כבויות, ורוב הדברים שהזכרתי יקח להקים אותם חודשים, מה גם שחלק מאותן חברות ממש לא רוצה לשמוע על PoC בענן.

אז להלן כמה נקודות שהתחלתי לעבוד עליהן ואני משתף אותן פה לראשונה, אתחיל בבעיות שמצאתי עם שרתי מותג ישנים:

  • שרתי מותג בתצורת 1U או 2U ישנים הם אסון מבחינה אקוסטית כשמתחילים להרחיב אותם. קחו כל שרת 1U ותוסיפו כרטיס או 2. לא חשוב מה הכרטיסים שתוסיפו. ברגע שתפעילו את הכרטיסים ותפעילו מחדש את השרת, תראו איך המאווררים עולים בכמה דציבלים טובים מבחינת רעש, גם אם יש קירור ממזגן או שהמעבדים לא עושים כמעט כלום. הכרטיסים חוסמים חלק מהקירור, שבב ה-BMC שאחראי על ניהול כל הקירור וה-PWM של המאווררים – מחליט על דעת עצמו להעלות ברמה את מאמצי הקירור (למרות שאין ממש צורך. שרת יכול לעבוד יופי גם אם הטמפרטורה בשרת היא 25 מעלות לדוגמא). בשרתים 2U הבעיה פחות קיימת – עד שאתה מכניס כרטיסים של 40 ו-56 ג'יגהביט (לדוגמא: מסידרת ConnectX של Mellanox) – ואז שוב הדצבילים עולים. זו, אגב, אחת הסיבות מדוע שום ספק ענן ציבורי רציני לא רוצה להשתמש בשרתים כאלו – הם בנויים ברמת Engineering של "כיסוי תחת" מושלם, למרות שהציוד יכול לתת יותר ולעבוד בטמפרטורות יותר גבוהות (מה שחוסך לספק הענן כסף בקירור).
  • אחת הבעיות הנוספות בשרתי מותג היא שהטכנולוגיה ישנה למרות שטכנולוגיה חדשה יותר היתה קיימת בעת יצור השרת. קחו שרתים כמו R610 ו-R620 (או G7 ו-G8 של HPE) ותגלו שרוב תושבות ה-PCIe (אם לא כולם) הם PCIe 2.0 ולא PCIe 3.0. רוצה לחבר JBOD ב-SAS 12G? זה פשוט או שלא יעבוד או שיעבוד לאט כי השבבים של LSI ו-Adaptec לדוגמא דורשים PCIe 3.0.
  • בעיה נוספת שאינה נמצאת רק בשרתי מותג היא עניין הזכרון: אם אין לך מקלות זכרון DDR3 ECC כשכל מקל הוא 32 ג'יגהבייט, תוכל להכניס מקסימום 16 מקלות של 16 ג'יגהבייט ולקבל מהירות של 1333 מגהרץ. כל מקל נוסף שתכניס בתושבות הזכרון הפנויות – ומהירות הזכרון של כל השרת יורדת ל-1033 ואם אתה ממלא את כל התושבות (18 או 24, תלוי בלוח אם) – זה ירד גם ל-800 מגהרץ עלובים, כך שמקסימום הזכרון שניתן להשתמש בלוח אם עם מעבדי Xeon E5 V1 או V2 במהירות זכרון מקסימלית – היא 256 ג'יגהבייט זכרון עם מקלות של 16 (מחירי המקלות של 32 ג'יגהבייט זכרון עדיין גבוהים).

מהבעיות – נעבור לפתרונות:

  • מבחינת לוחות אם, אני מעדיף לעבוד עם Supermicro. הם מייצרים לוחות מעולים שידידותיים לשינויים. כך לדוגמא ניתן להוסיף תמיכת NVME לתוך ה-BIOS, גם כש-NVME לא היה קיים בזמן יצור הלוח. אפשרי גם להתקין Coreboot (בחלק מהמקרים, לצרכי אבטחה) במקום ה-BIOS הרגיל, וכל הציוד הקיים על הלוח נתמך גם בהפצות לינוקס ישנות ללא צורך בחיפוש אחר מודולים ודרייברים, כולל שינוי מהירויות מאווררים, שליטה על ה-IPMI ללא צורך להיכנס ל-BIOS וכו'.
  • אחת הנקודות שחשוב לשים לב בבחירת לוח אם – זה הגודל שלו. אפשר למצוא לוחות מעולים של Supermicro אך שהם בגודל EE-ATX. בניגוד לרושם הראשוני, הגודל במקום רבים מופיע כ-Extended EATX ואנשים לא שמים לב לכך (כולל הח"מ) ולוח כזה לא נכנס לשום מארז שרת (וגם לא ברוב מארזי ה-Tower, אלא אם בא לכם להצטייד במקדחה לחורר דברים, לחתוך פלסטיקים וכו' וכו'), ולכן אם רוצים לרכוש לוח אם כזה, כדאי לבחור ATX או E-ATX בלבד.
  • בחירת מעבדים – הנה נקודה שנשמעת די טריוויאלית אך היא אינה כה פשוטה שמסתכלים מקרוב. בלוחות SuperMicro מסוג X8D או X9D אפשר להשתמש ב-Xeon E5 V1 (שלא כתוב עליו V או V1) ובמקרה של X9D אם תכנון הלוח (כתוב כ-Revision על הלוח) הוא מגירסה 1.20 ויש BIOS אחרון – אפשר להשתמש ב-Xeon E5 V2. בלוחות X10D אפשר להשתמש במעבדי Xeon E5 V3 או Xeon E5 V4 עם זכרון DDR4 ECC. אתם לא מחפשים כח עיבוד רציני? אפשר או לרכוש לוחות עם האות S במקום D (ה-S מציין לוח מעבד יחיד ו-D מציין זוג מעבדים) ואז מכניסים מעבד אחד או שאפשר לרכוש 2 מעבדים כשבמעבד מצויינת האות L (הכוונה Low Power).
  • מעבדים וטכנולוגיה – סביר מאוד להניח שכל מי שרוצה לרכוש שרתים, ירצה להריץ עליהם פתרון וירטואליזציה כלשהו, ואין שום בעיה להריץ vSphere על כל המעבדים, החל מהדור ראשון ועד הנוכחי, אבל אם רוצים להשתמש בטכנולוגיית וירטואליזציה כמו SR-IOV (פוסט על הנושא בבלוג העסקי בקרוב) – חייבים מעבד Xeon E5 V4 ומעלה. אפשר לנסות על Xeon E5 V3 אבל המימוש קיים בערך ב-60-80% מהמקרים, תלוי בלוח, ב-BIOS וכו'.
  • מבחינת מארז ללוח אם לשם בניית השרת – ישנם לא מעט מארזי 3U זולים שניתן לרכוש מ-eBay והם יחסית קלים במשקל כך שלא יהיה צורך לשלם סכומי עתק על המשלוח. עם מארזים כאלו ניתן להשתמש בקירור יותר קונבנציונאלי למעבדים, ניתן להשתמש במאווררים 120 מ"מ שקטים וניתן להשתמש בספק ATX רגיל (מי שמעוניין יכול כמובן להכניס 2 ספקי Flex ATX לשרידות), ואם הולכים על מארז 4U, אפשר להשתמש בפתרון קירור עם רדיאטור בגודל 120 מ"מ לכל מעבד ולהשאיר את המאוורר האמצעי לקרר את את הלוח, זכרון וכו' – זה בהחלט מספיק.
  • מעבדים – ניתן למצוא מעבדים זולים מהסידרת Xeon הראשונה, V2 וגם חלק ממעבדי V3 (אלו עם ה-4 ליבות). מעבר לכך – המחיר קופץ. פתרון די פופולרי שקיים הוא לרכוש מעבדים מאותה משפחה מסידרת ES שהם בעצם Engineering Samples. חשוב לציין: אלו מעבדים שאין להם כיתוב שם רשמי על המעבד (כתוב מספר כלשהו ו-Confidential) ובחלק מהשרתים (במיוחד בשרתי מותג) הם לא יעבדו. המהירות שלהם תהיה פחותה מהמהירות הרשמית בהשוואה לדגם הרשמי ויכול להיות (סיכוי מאוד קטן) למצוא בעיית תאימות כלשהי באפליקציות מסויימות (לא נתקלתי בבעיה כזו). אין שום אחריות למעבדים כאלו מצד אינטל. גם כאן, Supermicro הם היחידים שאני מכיר שכל ה-ES עובדים בלי בעיה על לוחות האם של החברה. אפשר לקחת פחות סיכון ולרכוש את ה-QS שהם בעצם שוחררו זמן ממש מועט לפני היציאה הרשמית של המעבד, ושם מהירות השעון היא כמו המעבד הרשמי ואם היו באגים, המיקרוקוד שקיים ב-BIOS כבר מטפל בבעיה. בכל מקרה אני לא ממליץ לאף חברה לרכוש מעבדים דוגמאות ES או QS.

עוד דברים שיכולים לעזור:

  • חושב לעבוד במהירות 10 ג'יגה? (לפחות מהסטורג' שלך למכונות). במקום לחבר Point to point, יש Switch של חברת MicroTik ב-2 גרסאות. יש גירסה של 8 פורטים ו-16 פורטים, חיבורי +SFP. ה-8 פורטים עולה כמה מאות שקלים וה-16 פורטים עולה בסביבות ה-1300 שקל, כך שתצטרך לרכוש כרטיסי רשת וכבלי DAC/TwinAX. חשוב לשים לב – אם אתה עובד עם vSphere אז לא לרכוש כרטיסי רשת ישנים של Chelsio (הם לא נתמכים ואין VIB שנותן להם תמיכה).
  • מחירי UPS צנחו וכיום ניתן לרכוש UPS של 1000VA ולחבר אותו ל-3 מכונות למקרים של הפסקות חשמל קצרצרות (חצי דקה עד דקה גג, תלוי בעומס של המכונות שלך) או כמיישר מתח. מחיר של UPS כזה הוא בסביבות 400-500 שקל (תלוי היכן קונים).
  • אם אתה מתעקש לקחת שרתי מותג ורוצה מקסימום שקט, קח שרת 2U ואל תכניס בו דיסקים (למעט 1 או 2 ל-OS ואם זה ESXI – אז תשתמש ב-Disk On Key בחיבור שקיים לך על לוח האם). אחד הדברים ששמתי לב בכל הקשור לאיוורור – הוא שאם יש דיסקים, המאווררים חייבים ליצור לחץ סטטי גדול מאוד כדי להכניס מספיק אויר לקירור. אם אין דיסקים, לא צריך לחץ סטטי חזק והשרת יותר שקט.

בקרוב אציג וידאו חדש: איך לבנות JBOD טוב ובזול, ללא צורך בזכרונות, מעבד, לוח אם, והכי חשוב – שקט.

כמה מילים על UPS

מי שקורא את הבלוגים שלי (זה הנוכחי והבלוג היותר עסקי) אולי קרא בעבר שאני לא בדיוק חובב UPS. חלק מהאנשים כתבו שאני "אנטי UPS" למרות שאני לא, והייתי רוצה לנצל את הפוסט הזה כדי להסביר את התצורה שלי, היכן UPS עוזר והיכן .. לא כל כך.

עד לפני חודשים ספורים ב-LAB שלי כל המכונות היו שרתי מותג ושרת האחסון מבוסס לינוקס+ZFS היה מכונת Core i5 פשוטה עם 32 ג'יגה זכרון ודיסקים. אם היתה מתרחשת הפסקת חשמל והחשמל היה חוזר לאחר זמן מה, כל השרתים היו מופעלים מיידית, אך מכיוון שלשרתים לוקח זמן רב להגיע למצב שהם מטעינים את ה-OS, הזמן ה"פנוי" הזה היה די והותר עבור מכונת ה-i5 לעלות, לבדוק שהכל תקין מבחינת ZFS, לייצא את ה-NFS ושאר שרותים, כך שכשהשרתים היו מתחילים לעלות, כל השרותים שהם זקוקים להם חיצונית – היו זמינים להם. את ה-UPS עצמו לא הייתי צריך כי רוב הזמן המכונות הוירטואליות היו סטטיות "ריקות" שמריצות Hypervisor (כך ש-reboot פתאומי לא היה ממש משנה משהו) ומכונות ה-VM היו עולות בין כה מחדש, כך שב-99% מהמקרים הפסקת חשמל לא היו ממש מזיקות לי. כל המערכת כולה, החל מהרגע שהחשמל חזר ועד שהכל למעלה – עולה תוך 10 דקות בערך.

UPS באופן עקרוני יכול לעזור במצבים מסויימים. אם יש לך מכונת דסקטופ עם GPU יוקרתי וביצעת Overclock לדוגמא למעבד ו/או לזכרון, המכונה תעבוד 24/7 ותצרוך הרבה יותר חשמל מהמצב הרגיל, מה שאומר ש-UPS של 1000VA (וולט אמפר) יחזיק לך אולי דקה או 2 גג. אתה יכול להגדיר את ה-UPS כך שלא יעשה כלום או שיתחיל את תהליך הכיבוי או להריץ סקריפט משלך כשאין חשמל. כמה זה עוזר? תלוי. יש מקרים ש-Windows לדוגמא בעת כיבוי מציג חלון שאומר שאפליקציות X,Y,Z פתוחות והחומר לא נשמר, מה שדי מבזבז את הזמן שנשאר בסוללת ה-UPS. בלינוקס ובמק המצב יותר טוב והמערכת כשמקבלת פקודת כיבוי מתחילה לכבות את השרותים במקביל עד לחלק ה-poweroff שמורץ ואז המכונה תיכבה מעצמה בצורה חלקה ללא נזקים.

בזמן האחרון ה-LAB שלי קיבל תפנית חדה ועד סוף חודש הבא (תלוי בשירותי השליחויות בחו"ל, מכס וכו') יתווספו ל-LAB שלי עוד 5 שרתים באורח קבע ושרת האחסון שלי יוחלף בשרת עם מעבד Xeon מרובה דיסקים ו-SSD. שרת כזה לא עולה תוך 45 שניות כמו השרת הנוכחי וכששרתי הוירטואליזציה השונים לא מקבלים שרותי NFS ו-iSCSI בזמן boot – הם גם לא מפעילים את המכונות הוירטואליות שאמורות לרוץ עליהם, ולכן מה שאצטרך לעשות בעצם זה לחבר את ה-UPS ל-Raspberry Pi ולדגום את ה-UPS. אם יש הפסקת חשמל, הוא ישלח פקודות דרך ipmitool כדי לכבות את המכונות ושרת הקבצים כמכונה אחרונה. חזר החשמל? הסקריפט ירוץ הפוך (שרת קבצים קודם כל, בדיקת שרותים, ולאחר מכן הפעלת שרתי הוירטואליזציה).

אז למי ששואל אותי לגבי עמדתי בעניין UPS – כן, אני ממליץ לכל אחד, במיוחד שזה עולה רק בסביבות ה-400 שקל ויכול להציל אותך מהפסקות חשמל קצרצרות (כמו שיש כאן באזור). למי שיש LAB לעומת זאת, אני ממליץ לעשות חישובי צריכה ולקנות את ה-UPS בגודל המתאים (אם יש לך נסיון בלינוקס אז אתה לא חייב את הגירסה עם הכרטיס רשת. יש בלינוקס את NUT ואתה יכול לעשות איתו את הכל ופשוט לחבר את ה-UPS לאיזה מכשיר Raspberry Pi או תואם). אני לא אהבתי כל כך UPS כי אני אוהב לחיות מבחינת טכנולוגיה "על הקצה" ואוהב לעשות Stress לציוד שברשותי (ושהינו בבעלותי) ולבדוק אם המערכת חיה גם אחרי אירועי הפסקות חשמל, חום וכו', אבל גם אני עכשיו עם UPS 🙂

כמה מילים על ה-Samsung Galaxy Fold

מכשיר ה-Galaxy Fold של סמסונג שיתחיל להימכר החל משבוע הבא (אין לי מושג אם הוא ימכר בישראל) הזכיר לי כמה דברים שחשבתי לשתף אותם, במיוחד לכל אלו שאין להם שום בעיה להוציא 2000$ (לפני מע"מ) על צעצוע חדש.

בואו נחזור 3 שנים אחורה. באחת מהתערוכות המקומיות ביפן הציגה חברה יפנית מסך גמיש. לחברה קוראים Sharp והם היו בין הראשונים שהציגו מסך שמחובר למכונה שגוללת את המסך הלוך ושוב. זמן לא רב אחר כך הציגו סוני, LG וסמסונג מסכים גמישים. עניין התצוגה הוא דבר חשוב עבור חברות כדי להציג קידמה והצדקת השקעה ב-R&D.

מצד שני – אם תיקחו מהנדס מהחטיבות האלו לשאול כמה הדבר הזה שמיש – כולם היו אומרים לך משהו פשוט: התצוגה עובדת מעולה, אבל לא יכולה לעמוד בתנאי שימוש יומיומיים מחוץ למעבדה או חדר נקי (במובן של חברות יצור שבבים).

סמסונג החליטה לפני כשנתיים בערך להתחיל למכור את המסכים הגמישים שלה גם למתחרים, ביניהם Xiaomi, Huawei ואחרים. זה לא משהו מיוחד, סמסונג מתחרה במוצרים הסופיים, אבל שמחה למכור לך כמעט כל ציוד שהם מייצרים, כולל סוללות, זכרונות, מסכים ועוד.

בואו נסתכל על המסך: המסך הפנימי של ה-Galaxy Fold והמסכים של המתחרים, בנויים בדיוק באותה שיטה – המסך מורכב משכבות, מסך OLED שמודפס, כאשר הדיגיטייזר (מה שדוגם את האצבעות שלכם) – מעליו, ומעל ישנה שכבת פולימר שמודבקת. בניגוד לטלפון הרגיל שלכם – אין זכוכית למעלה ואין תאורה אחורית (כמו במסכי IPS וחלק מהמסכים האחרים). אותה שכבה פלסטיק – היא זו שנועדה להגן על המסך ואם מנסים לקלף אותה – המסך פשוט יפסיק לעבוד כי כשמקלפים, הורסים את ה-OLED, והמסך מתחיל להבהב, חלקים ניכרים יוצגו כשחור או יהבהבו והפתרון היחיד הוא להחליף את כל המסך, סיפור יחסית די קל ב-Fold (לפי תמונות שפורסמו ב-Weibo) אבל יקר להחריד.

במציאות היומיומית, כשפותחים את הטלפון במגוון מצבים ובמקומות שונים – הטלפון יספוג חלקיקים שונים, החל מחול, פירורים ושאר דברים, והם פשוט ישרטו את שכבת הפולימר במקרה הטוב, או יכנסו בקפל של המכשיר במקרה הרע (מאוד. ברגע שזה נכנס, זה עניין של שעות עד שהמסך הפנימי יפסיק להגיב) ובניגוד לזכוכית – כאן ניגוב לא יעזור ושריטות יהיו עניין של ימים ספורים בודדים עד שיתרחשו, השכבה פשוט דקה מאוד.

במכשירים של המתחרים לעומת זאת, המצב יותר גרוע: גם Xiaomi וגם Huawei נתנו הצגה מוקדמת של המכשיר, ובניגוד למכשיר ה-Fold של סמסונג, כל המסך של המכשירים שלהם הוא Oled עם שכבת ציפוי פולימרית, הווה אומר: תכניס לכיס, והוא ישרט, כך שכבר בשעות הראשונות אחרי שתתחיל להשתמש בו ולהכניס אותו לכיס – "תזכה" לערימת שריטות שאי אפשר לתקן.

במילים אחרות: אם אתה קונה את המכשיר ב-2000$, זו תהיה אחת ההשקעות שתצטער עליה מאוד מהר.

בשביל ש-OLED גמיש יצליח, יש צורך בפיתוח של שכבה חלופית לפולימר, שכבה שתעמוד בשריטות, ושההדבקה תהיה הרבה יותר חזקה (יש כבר תמונות של ה-Fold שבה השכבה הפולימרית מתחילה להתקלף מעצמה, שזה אומר – עניין של שעות עד שהמכשיר יהיה מושבת!).

בעיה אחרת שפחות קשורה לחומרה ויותר קשורה לתוכנה – היא שתוכנות רבות פשוט לא יודעות לעבוד במצב Tablet וכתוצאה מכך אם פותחים את המכשיר והאפליקציה מוצגת, תקבלו תצוגה של 2 פסים גדולים שחורים אנכיים – ואת האפליקציה באמצע. לצערי גוגל אינה כמו אפל שמוודאת שאפליקציות שמיועדות לטאבלט – מופרדות מהאפליקציות לטלפון, וזו התוצאה. גירסת אנדרואיד הבאה (Q) תתמוך באפליקציות ובמעבר ממצב טלפון לטאבלט באופן אוטומטי, אבל עדיין אין תמיכה רצינית לפונקציונאליות הזו.

לסיכום: סמסונג רצתה להיות הראשונה עם מכשיר מתקפל בעל מסך גמיש. סמסונג יצאה עם המכשיר והיא חוטפת את כל הריקושטים האפשריים. Huawei תצא כמדומני בחודש הבא עם המכשיר שלה ו-Xiaomi כנראה תוציא מכשיר מתקפל בהמשך השנה. ימים יגידו איך הקהל יתייחס למכשירים ואיך הם ישרדו. הטכנולוגיה, לעניות דעתי, עדיין אינה מוכנה לשימוש יומיומי ובוודאי שאינה שווה השקעה של אלפי דולרים (מי בדיוק האיש המבוסס שרוצה להשוויץ במכשיר יקר מאוד .. ושרוט?). מצד שני – אין ספק, המכשיר והחידוש של מסך OLED גמיש – מאוד מלהיב אנשים כך שאני מאמין שיהיו השקעות רציניות בטיפול בבעיות שיצוצו במכשירים בגירסה הראשונה.