האם NVIDIA פתחה את הקוד לדרייבר ה-GPU שלה?

החדשות שהופיעו באתרים שונים (לדוגמא: Phoronix) לפיו חברת NVIDIA החליטה לפתוח את קוד המקור של הדרייברים לכרטיסי ה-GPU שלהם – גרמו ללא מעט אנשים לחייך ואולי לאמר "ניצחנו", חברת NVIDIA נכנעה ופתחה את הקוד לדרייברים שלה!

אז זהו. שלא.

הדבר הראשון שכדאי להבין – זו הסיבה מדוע NVIDIA התעקשה להשאיר את הדרייברים כקוד סגור, והסיבה לכך קשורה להיסטוריה: NVIDIA קנתה חברות שונות והשתמשת בקניין הרוחני. בנוסף, NVIDIA חתמה על הסכמי רישוי שונים כולל השכרת פטנטים מחברות כמו S3, IBM וכו' הקשורים למימוש פונקציות שונות בדרייברים, והסכמים אלו אסרו על NVIDIA לפתוח את הקוד לחלקים אלו, כך של-NVIDIA לא נותרה ברירה ודרייברים ל-GPU ביתיים ומקצועיים – נשארו סגורים. לעומת זאת, בכל הקשור לציוד משובץ (Embedded) – ב-NVIDIA (עם דרייברים ל-Tegra, ה-GPU למערכות משובצות שלהם) התחילו הכל מאפס, כך שהם יכלו מהרגע הראשון לפתוח את הקוד לדרייברים, ואכן הדרייברים הללו נמצאים בחלקים השונים בלינוקס, כמו ב-Kernel, ב-Mesa ובמקומות אחרים.

אז מה בעצם השוני הגדול הפעם?

מה שקורה, הוא ש-NVIDIA פיתחה מיקרו מעבד חדש מבוסס RISC-V שנמצא בתוך ה-GPU (זה נקרא GSP) ואותו מעבד מבצע את מה שהדרייברים הקודמים עשו עם ה-CPU במחשב, במהלך איתחול ה-GPU כשה-OS עולה, רק שעכשיו הכל נעשה עם ה-GSP, באופן עקרוני:

  1. הדרייבר ב-Kernel מאתחל את ה-GPU ואת ה-GSP (ללא האיתחול, הדברים היחידים שאפשר לעשות עם ה-GPU זה בחירת מצב טקסטואלי ממה שנתמך דרך VESA, ומצב Frame Buffer mode, אם בא לך לשנן מחדש את קטלוג הקללות שאתה יודע..).
  2. הדרייבר מעלה קושחה סגורה ומוצפנת וה-GSP "לוקח פיקוד"
  3. בסיום, הכרטיס מודיע ל-Kernel לגבי מהות הציוד, כניסות, יציאות, פונקציות אפשריות, יכולות וכו'
  4. לאחר שהמודול הופעל בהצלחה, חלקים אחרים (User space) מתחילים לפעול מול המודול בזכרון

במילים אחרות, מכיוון שהכל נעשה עתה בחומרה ללא צורך בכל הדרייבר הבינארי ש-NVIDIA בנתה ושחררה (שימו לב, דרייבר בינארי. עדיין צריך את הקושחה הבינארית וזה דבר שתמיד תצטרכו) – אין מניע ל-NVIDIA שלא לשחרר את הקוד החדש, הוא לא מגלה שום דבר למתחרים מצד אחד, ולא מאפשר למשתמשים להפעיל פונקציונאליות בלתי מורשית מצד שני.

האם זה אומר שממחר בבוקר הדרייבר הפתוח הוא המענה החדש של NVIDIA? לא ממש. הדרייבר החדש הוא רק בראשית דרכו, יש לו עוד דרך חתחתים לעבור (והפעם כל יצרני הפצות לינוקס משתתפים בבניה ושילוב הדרייבר והכנת חבילות התקנה), כך שלבינתיים ממשיכים לעבוד עם הדרייברים הבינאריים הרגילים. בנוסף, ה-GSP בגירסה החדשה קיים רק בכרטיסים מבוססי Turing. שאר הכרטיסים הישנים יותר – ממשיכים לקבל תמיכה רק דרך הדרייברים הבינאריים הרגילים.

אז האם NVIDIA "ראתה את האור" בכך שהיא פותחת דרייבר חדש בקוד פתוח? רחוק מכך. אם תרצה לקודד וידאו, אם תרצה להעלות מהירות שעון של ה-GPU ואם תרצה להריץ קוד המצריך CUDA או OpenGL או דברים אחרים – תצטרך לעבוד מול החלקים האחרים (User Space) ש-NVIDIA משחררת כקוד סגור בלבד, ובשלב זה לא נראה ש-NVIDIA הולכת לפתוח את הקוד הזה.

ועוד משהו קטן לגבי המתחרה הגדולה של NVIDIA – חברת AMD. האם גרסאות הדרייברים בקוד פתוח שלהם נותנים בעצם יותר מעצם העובדה שהם פתוחים? לא תמיד. ב-AMD פשוט מחביאים את הפונקציות העיקריות והחשובות – בתוך קושחה בינארית מוצפנת. כמו ב-NVIDIA, רק שב-AMD החלקים הקשורים ל-User space – פתוחים. אגב, גם במקרה של אינטל, הדברים זהים למה ש-AMD מבצעים (אם כי גם שם יש חלקים סגורים, היי Intel Media SDK), ויש גם קוד חופף ל-AMD ואינטל בחלקים כמו Mesa וכו'.

לסיכום: NVIDIA מעולם לא חיפשה לעשות "דווקא" ולא היתה "אנטי קוד פתוח". אין שום כיף בכך שצריך לתחזק דרייבר משותף לכל מערכות ההפעלה, להכין קבצים בינאריים ולוודא שוב ושוב ששום דבר לא תוקע את ה-OS עקב באגים בדרייבר (ב-NVIDIA זוכרים את הלקח הכואב הזה בצורה חזקה מ-Windows Vista). אני מאמין שהם יפתחו לאט לאט גם את החלקים האחרים, אבל בכל מקרה, צריך לתת מחמאות ולעודד חברות שמחליטות לפתוח את הקוד לחלקים שונים (ולא מסתכלות על קוד פתוח כ"בית קברות" לפרויקטים שלא יתוחזקו לעולם).

כמה מילים על הדרייברים של NVIDIA וה"פריצות" החדשות

בשבועות האחרונים אנחנו עדים למגוון פוסטים של חדשות טכניות בהם אנשים שונים מפרסמים כי הם הצליחו "לפרוץ" את ההגבלה על מהירות HASH של כריית מטבעות וירטואליות (LHR) ש-NVIDIA הכניסו בכרטיסי GPU שונים. לקח יומיים עד שבאותם אתרים הופיעו החדשות כי ה"פריצה" היא לא יותר מאשר קובץ המכיל מספר סוגי וירוסים וסקריפטים שונים שרק מעמיסים תולעים ומזיקים למחשב.

בסוף השבוע האחרון הודיעה קבוצה דרום-אפריקאית כי הם הצליחו לפרוץ ל-NVIDIA (כפי הנראה דרך שרת הדואר), והם הצליחו לגנוב חומר חשוב בגודל 1 טרהבייט מהחברה, כולל מפרטים שונים, קוד וכו'. חברת NVIDIA, בצעד לא טיפוסי, הצליחה לפרוץ בחזרה אל הפורצים והחברה הצליחה להצפין עם כופרה את המחשב שבעזרתו נגנב התוכן. הפורצים הודיעו בתגובה כי הם הצליחו לגבות את החומר לפני ש-NVIDIA הצליחו להצפין את המחשב (שהוא בכלל VM).

כמובן שהפורצים התחילו לפרסם שלל הצהרות (כפי שניתן לראות כאן) עם איומים על NVIDIA שתפרסם "שחרור נעילה" של כרטיסי LHR ושלל דרישות אחרות – או שהם ישחררו דרייברים ועדכוני BIOS שיפתחו נעילות רבות ש-NVIDIA הכניסו על מנת להגביל את הכרטיסים השונים.

אז אחרי שראינו מה הפורצים רוצים, ומה ש-NVIDIA יכולים לעשות לפורצים, אולי כדאי יהיה להבהיר מספר דברים חשובים לכל אלו שמשתמשים בכרטיסים של NVIDIA לצורך כריה או שרוצים לשפר את ביצועי הכרטיסים שלהם:

  • חברת NVIDIA בעברה הרחוק, כלל לא חתמה ולא הצפינה את ה-BIOS לכרטיסיה, וכתוצאה מכך – סוחרים מפוקפקים רבים הצליחו לשים את ידם על כרטיסים ישנים, לשנות BIOS ולמכור את הכרטיסים הללו ככרטיסי GTX 1070, GTX 2060 וזיופים של כרטיסי NVIDIA אחרים, כאשר בתוך אותו כרטיס ישנו מעבד גרפי ישן מאוד. כיום, אם מישהו חושב שהוא קנה כרטיס גרפי במחיר מציאה וחושש שעבדו עליו, הוא יוכל להתקין את תוכנת HWinfo ולבדוק זאת, והתוכנה תתריע מיידית אם מדובר בכרטיס עם מעבד גרפי מזויף או אותנטי.
  • ב-NVIDIA משתמשים במספר טריקים שונים בכדי ליצור דרייברים לכרטיסים השונים. כך, לדוגמא, כל דורם שמבצע סקירה על כרטיס שלא שוחרר של NVIDIA, יקבל בדואר את הכרטיס, אך הוא לא יוכל להפעילו עד ש-NVIDIA לא תשחרר רשמית דרייברים לאותו כרטיס באתר יעודי סגור. כל מי שינסה לקחת דרייברים קיימים ולנסות לשנות אותם (לפי PCI ID לדוגמא) יגלה מהר מאוד שהדרייברים הקיימים פשוט לא עובדים על הכרטיס החדש והלא מוכרז. הסיבה: החלק ששונה בין הכרטיסים הישנים לחדשים נמצא, באופן מוצפן וחתום, על הקושחה שמגיעה עם הדרייבר.
  • חברת NVIDIA מאפשרת עבודה די בסיסית עם הכרטיסים שלה, כל עוד הכרטיס מופעל במהירות שעון בסיסית בלבד, וכאשר רוב פונקציות התלת מימד והקידוד/פריסת וידאו אינן פעילות במלואם – כל זאת ניתן לעשות בלינוקס עם דרייבר ה-Nouveau, וגם כאן – כל עוד יש קובץ קושחה אותנטי, מוצפן וחתום. הסיבה לכך: NVIDIA רוצה שלמשתמשים תהיה סביבה גרפית פעילה באופן מספק על מנת שהמשתמש יוכל להוריד בקלות בלינוקס דרייבר מלא ושיוכל להתקינו מבלי לעבור תהליכי "פליק פלאק" שונים.
  • תהליך יצירת וחתימת דרייברים, גם עבור שותפים עסקיים של NVIDIA, לא מבוצע Online אלא לחלוטין Offline בצורה הכי ידנית שיש ובשימוש מספר כלים בכדי לייצר דרייבר וקושחה – כשהם מוצפנים במפתחות יעודיים (ושונים: אפשר לדוגמא להריץ דרייברים של RTX ה"ביתיים" על כרטיסי GTX, אך לא לקבל את כל הפונקציות החזקות על הכרטיסים המקצועיים מסידרת A, לדוגמא).

ולכן – כאשר כל מיני "פורצים" מבטיחים כי הם יוכלו לבטל LHR או מגבלות אחרות בכרטיס, מדובר בלא יותר מעבודה בעיניים. אכן, בעבר, NVIDIA הגבילה את ה-LHR ברמת הדרייבר ועקב טעות של מהנדס, ההגבלה שהיתה ברמת דרייבר בלבד – בוטלה, אולם מאז החברה למדה לקח, והגבלת ה-LHR היא ברמת הסיליקון, הווה אומר – הגבלה חומרתית במעבד הגרפי, ושום עדכון BIOS/קושחה לא יוכל לבטל זאת.

אז אם אתם קוראים על כל מיני "פריצות" חדשות ל-GPU שיאפשרו דברים טובים וביצועים משמעותית יותר גבוהים, וכל זאת ב"דרייבר" להתקנה – שמרו מרחק מ"דרייבר" כזה. אגב, כל מה שתיארתי לעיל על NVIDIA, תקף (ברובו) גם על AMD.

הסיפור עם Senetic ודיסק קשיח שלא מגיע

יצא לי לא מעט פעמים להזמין סחורה דרך ספקים שונים בארץ, ברוב המקרים החוויה הזו עברה בשלום ואני קיבלתי את הסחורה בזמן, או מקסימום באיחור של יום. גם עם חברת Senetic עבדתי בעבר והזמנתי ציוד לי ואף הפנתי חברים עם המלצות לעבוד עם החברה.

ואז .. החלטתי להזמין דיסק קשיח מכני מדגם Ultrastar DC HC530 בגודל 14 טרהבייט. המחיר היה טוב מכדי לפספס (כ-914 שקל). הכנסתי את הפרטים, הזמנתי וחיכיתי לדיסק. תאריך ההזמנה: 28/1.

חלפו מספר ימים וב-8/2 הגיע אליי החשבונית המיוחלת עם Tracking של DHL. הוספתי את מספר ה-Tracking למעקב באפליקציה החביבה עליי (Track17) והמשכתי להמתין לדיסק. נזכרתי בזמנו ששוחחתי עם נציגה ב-Senetic שהבטיחה לי כל "זה יגיע תוך 5 ימים מהרגע שזה מגיע לארץ".

חלפו כמה ימים, ואין דיסק. חייגתי ל-DHL ושם הבנתי שהנציגים הנחמדים לא יוכלו לסייע לי, הואיל ומשלוח דיסק אליי ומעקב המשלוח פעיל רק כשיש את מספר שטר-מען ראשי (של כל החבילות של Senetic שנשלחו מפולין ארצה) ובלי זה – הם לא יכולים לסייע לי, ולכן החלטתי לשוחח עם Senetic. הנציגה הבטיחה ש"מחר או מחרתיים" הדיסק אצלי. עברו יומיים – וכמובן, הדיסק בושש מלהגיע.

שוב הרמתי טלפון, ענתה לי מארי, ומארי היקרה טענה כי עקב "אופסי" של DHL – השליח הנכבד לא אסף מהמכס את כל "אלפי המוצרים" שהגיעו מפולין (השיחות, אגב, מוקלטות) ובכלל, אני צריך לדעת כי לקוחות מקבלים את המוצרים "תוך 3 שבועות" (מוזר, בפעם הקודמת טענו שזה יקח 5 ימי עסקים), ובקיצור – אין לי אפשרות לשאול את DHL (כפי שציינתי לעיל).

ה-Tracking נראה כך, לפי אתר DHL (לחצו להגדלה):

בקיצור – אני תקוע, בלי דיסק, לאחר ששילמתי, ועם תירוצים של Senetic, כשאף אחד לא מוכן לאמר לי מה קורה בגורל הדיסק. כעת, לאחר החוויה הזו, אני לא רוצה אפילו להתחיל לדמיין מה קורה אם יש תקלה עם הדיסק ואיזה סיוט יהיה להחליף אותו..

חשבתי לתומי שאולי פשוט נבטל את העסקה, אקבל את כספי ואולי אזמין את הדיסק הזה בארץ, כך לפחות יהיה עסק שאיתו אוכל לתקשר במקרה שתצוץ בעיה כלשהי. מסתבר שאפשר לשלוח מייל עם בקשה לבטל את הרכישה, אבל הרכישה לא תבוטל עד שהיא תגיע למחסן של Senetic, ובקיצור – גם אם אבקש ביטול, איש לא יודע מתי ואם זה יקרה.

רכישת הדיסק הזו היתה עבור בניית פרויקט שאני חושב לבנות לו PoC ראשוני ואם הוא יתממש, תהיה רכישה בעתיד הרחוק של מאות או אלפי דיסקים, וחבל שחברה כמו Senetic מעדיפה לא לדבר או להתריע ללקוחות על בעיות איחור או זמינות מוצרים, ובמקום זאת פשוט מתעלמת מהלקוח. אני משאיר לכם, קוראים יקרים, את המחשבה שאם אתם חושבים לרכוש ציוד, אולי כדאי לחשוב פעמיים אם להשתמש בשרותים של Senetic ולרכוש מהם מוצרים.

אגב, לאלו שישאלו – ניסיתי ליצור קשר עם Senetic העולמית, הם שלחו אותי לאחר כבוד ללכת ולשבור את הראש עם Senetic הישראלית. לא ציפיתי אחרת..

מוגש כחומר למחשבה.

סקירת וידאו: QNAP TS-253D

קיבלתי לידיי מכשיר NAS לבדיקה מחברת ויז'ואל (גילוי נאות: הם שלחו לי את המכשיר לסקירה והוא נשאר אצלי, אך כל מה שאפרסם זו דעתי האישית ללא שום התערבות מהחברה).

אודה ולא אבוש – המכשיר בהחלט הפתיע אותי לטובה (ואומר את זה אחד שעבר כבר כמה מכשירי NAS שלא הצליחו אפילו לעמוד במבחנים פשוטים של גיבויים, RSYNC או דברים כאלו!). הוא בהחלט נותן מספר פתרונות לגיבוי של תכנים שונים, הוא נותן שיתוף קבצים בצורה קלה מאוד, גם לאלו שלא ממש מבינים מה זה smb.conf או etc/exports/. הוא יודע לגבות מכונות מ-VMware ו-Hyper-V ללא תשלום נוסף, הוא יודע לגבות מהענן אופיס 365 או גוגל Workspaces, הוא יודע לשמש כ-Cache ל-Object Storage, הרצת מכונות וירטואליות, קונטיינרים, ואפליקציות מהחנות של QNAP, ועוד לא מעט תופינים.

בקיצור – מכשיר, שבמקור נועד להימכר כפתרון גיבוי עבור VEEAM, נותן הרבה, הרבה יותר, בהתחשב במחירו ובהתחשב במפרט הטכני הצנוע שלו, כך שעסק שרוכש אותו, יכול להפיק ממנו הרבה, הרבה יותר מאשר NAS במחיר של כמה מאות שקלים או מכונת לינוקס שמריצה משימה אחת.

להלן סקירת הוידאו שהכנתי. שימו לב – בימים הקרובים אקליט ואעלה (ברגע שאפתור את הבעיה עם המיקרופון שלי ו-OBS) מספר הדגמות דרך ממשק ה-Web.

תכירו: Raspberry Pi Pico

בשנים האחרונות הוציאה קרן Raspberry Pi מחשבים קטנים שיועדו בהתחלה לקהל צעיר שרצה להיכנס לעולם המחשבים. מחירי המחשבים היו נמוכים מאוד, מה שגרם לחברות רבות להסתער על ההצעות של הקרן, ולקרן להוציא גרסאות שונות שמתאימות יותר לשוק המסחרי (כולל כל ה-Compute Module). אחד הדברים הטובים שניתן לאמר על הקרן – הוא שהקרן לא שכחה את הקהל המקורי והיא אף הוציאה לאחרונה את ה-Raspberry Pi 400 – מקלדת שבתוכה מחשב, כמו המחשבים שהיו בשנות ה-80 המאוחרות ושנות ה-90 המוקדמות.

לאחרונה הוציאה הקרן משהו חדש, שלא כולם יודעים איך "לבלוע". פוסט זה ינסה להבהיר במה מדובר, במה זה שונה משאר לוחות ה-Pi ומדוע בעצם כל המתחרים של ה-Pi – די מתלהבים.

לפניכם מצד ימין ה-Pi Pico. מי שיסתכל מקרוב, יזהה משהו די מוזר: אין שום חיבורים למסך, יש חיבור מיקרו USB יחיד, נורת LED, הרבה חורים, כפתור, כמה שבבים ו.. זהו. מה זה?

ה-Pico, בניגוד לאחיו בסידרת ה-Raspberry Pi, אינו מחשב כללי מבוסס ARM (ולא, הוא לא מריץ לינוקס). מה שיש ב-Pico הוא בעצם מיקרו-בקר (Microcontroller) שמכיל כמה דברים, כמו מעבד +ARM-M0 דו ליבתי שרץ במהירות 133 מגהרץ, כ-264 קילובייט של זכרון סטטי, ו-2 מגהבייט אחסון Flash. הרעיון המרכזי כאן, שאין כאן OS כמו לינוקס, וכל מה שהבקר מריץ – רץ בזמן אמת.

ה-Pico עצמו לא יתן לך הרבה אם תרכוש אותו (הוא נמכר בזול: 4$ לחתיכה), הואיל ובברירת מחדל אין לך הרבה מול מה לעבוד, וזו בדיוק כל הנקודה של ה-Pico: את ה-Pico משלבים יחד עם חלקים אחרים (בשביל זה החורים בלוח) אם אנחנו רוצים לשלב סנסורים או אם אנחנו בכלל רוצים ליצור תקשורת כלשהי החוצה (ל-Pico אין WIFI או Bluetooth).

הקרן בנתה מיקרו-בקר שלראשונה פונה לקהל חדש – אלו שלא ממש חובבים/יודעים לכתוב ב-C ואף פעם לא תכנתו מיקרו-בקר. את ה-Pico אפשר לתכנת עם MicroPython שניתן להוריד למחשב, להתקין ל-Pico, וניתן בקלות לעבוד עם ה-Python, הן במצב REPL (כלומר – הכנסת פקודות וקבלת פלט בצורה מיידית דרך חיבור ה-USB של ה-Pico והתוכנה במחשב) או לשמור ב-2 מגהבייט Flash תוכנות פייתון ולהריץ אותן. כעת, כל מה שצריך זה הבנה די בסיסית בפייתון כדי להתחיל לתכנת מיקרו-בקר, וזו בהחלט גישה מרעננת.

אולם הקרן לא עצרה כאן ולא ניסתה להתחרות בלוחות של יצרנים אחרים, אלא להיפך: הקרן פנתה לכל ה"מתחרים" והציעה להם לבנות פתרונות שגם יתחרו ב-Pico וגם יתנו פונקציונאליות משלימה כמו תצוגה, אודיו, תקשורת, חיישנים ועוד, וחברות כמו Pimoroni, Adafruit, Arduino ואחרים – הכריזו על מוצרים חדשים שמבוססים על ה-RP2040 – המיקרו-בקר החדש של הקרן.

למי שתוהה איך המיקרו-בקר בהשוואה לאחרים: מדובר בסופו של דבר ב"מפלצת". אם נשווה לדוגמא מול Arduino Uno, אז ל-UNO מהירות השעון של המיקרו-בקר היא 16 מגהרץ עם ליבה יחידה בשעה שה-Pico הוא עם ליבה כפולה ורץ במהירות 133 מגהרץ. ל-UNO יש 32K אחסון Flash בשעה של-Pico יש 2 מגהבייט, זכרון ל-UNO יש 2K ול-Pico יש 264K, ומבחינת מחיר – ה-Pico עולה 4$. אפשר לקנות באלי-אקספרס UNO ב-3-5$, אך יש גם סיכוי די גדול שתקבל מיקרו-בקר מזויף. לכן, גם אם אתה חובב ומשתמש ב-Arduino, תוכל לרכוש בקרוב את ה-Arduino Nano RP2040 Connect (בתמונה משמאל) ותוכל להשתמש בכל הספריות והכלים שאתה רגיל אליהם.

לסיכום: ה-Pico הוא כיוון חדש שהקרן לוקחת (לא, היא לא הולכת לרדת מסידרת ה-Pi בקרוב) בכך שהיא מפתחת מיקרו-בקר חדש (היא עבדה עליו במשך ה-6 שנים האחרונות) ולא מנסה להתחרות באחרים אלא להציע להם את המיקרו-בקר עם הרבה יותר פונקציות וביצועים יותר גבוהים, ובמחיר שחותך את רוב המתחרים. לראשונה – גם אלו שאין להם שום נסיון עם תכנות מיקרו-בקרים – יכולים להתחיל מאפס עם תיעוד עשיר ובמחיר שווה לכל נפש.

קצת על הבדלים בין כבלי USB Type C

אחת הטכנולוגיות המדהימות בתחומי מחשבים שנכנסה לחיינו לפני מספר עשורים – היא טכנולוגיית התממשקות USB עם ציוד מסוגים שונים. זו הטכנולוגיה שסוף סוף "הרגה" חיבורים שונים שהיה צריך להתמודד איתם, החל מחיבורי ה-PS/2, חיבורים סריאליים, חיבורי מדפסות, וחיבורים אחרים (זוכרים SCSI??).

אבל, כמו תמיד, כשבונים מפרט לטכנולוגיה ע"י מספר חברות ובאמצע נכנסים אינטרסים, לחצים ו"כיפופי ידיים", יוצא סלט איום – כמו הסלט שקשור לשמות החיבורים, מהו "דור" החיבור ועוד. כך אפשר לדוגמא למצוא שיש USB 3.1 אבל בעצם יש ל-3.1 שני דורות, Gen 1 ו-Gen 2 כאשר Gen 1 יכול להעביר נתונים במהירות עד 5 ג'יגהביט ו-Gen 2 מאפשר להעביר נתונים במהירות מדהימה של 10 ג'יגהביט, אבל … אם אין כיתוב מדויק מהו החיבור עצמו בציוד או בלוח האם, ואם אין לך את הכבל המתאים – זה פשוט לא יעבוד.

וכאן מתחילה הבעיה המהותית: כבלי USB Type C נראים זהים אחד לשני. עם Thunderbolt לדוגמא אפשר להבדיל בקלות בגלל סימון הברק שקיים על החיבורים בכבל ובחיבור במחשב. עם USB, המקסימום שתמצא אולי, אולי, זה סימון קטן של "10" שמציין שמדובר ב-USB 3.1 Type C Gen 2, אבל גם את זה לא תמצא במחשבים ניידים רבים.

אז לפני שאנחנו נכנסים לתוך הסלט הזה, חשוב לדעת קודם כל מה אנחנו מחפשים ומה ניתן למצוא כיום בשוק ברוב הזמן.

נתחיל בכבל USB Type C פשוט שניתן לרכוש בכל חנות מחשבים (שימו לב, כבל כזה כולל חיבור Type C בשני הצדדים). כבל כזה בדרך כלל יוכל להעביר מידע במהירות של עד 10 ג'יגהביט (תלוי אם ה-Port שאנחנו מחברים אותו תומך בחיבור Gen 2 מינימום) ויכול להעביר עד 60 וואט (W) חשמל מספק הכח. בחלק מהמקרים – מספרים אלו יצנחו מטה אם אנחנו מנסים לגרום לכבל להעביר גם מתח וגם נתונים (המספרים דינמיים, אבל מבחינת חשמל זה יכול לצנוח ל-9 וואט ולגבי מהירות נתונים – 5 ג'יגהביט ומטה). נקודה חשובה כשרוכשים כבל כזה היא אורך הכבל: ככל שהכבל יותר ארוך, מהירות העברת הנתונים תצנח למעט אם מדובר בכבל הכולל שבב בתוך חיבור ה-USB Type C בכבל עצמו – על כך אתייחס בהמשך פוסט זה.

אם אנחנו מעוניינים לחבר ספק כח בחיבור Type C אל המחשב הנייד, חשוב לבדוק כמה וואט (הכפלה של וולט X אמפר) הספק מציע. אם הספק מציע מעל 60 וואט, נצטרך כבל Type C PD – כבל זה יוכל להעביר עד 100 וואט, אך מבחינת העברת נתונים, המהירות בכבל כזה היא מהירות של USB 2.0 (כלומר – עד 480 מגהביט ברוטו).

אם אנחנו רוצים גם להעביר יותר מ-60 וואט וגם מהירות נתונים גבוהה, ישנן מספר חברות שמציעות כבלים כאלו (כמו UGREEN ואחרים), אך הכבלים הזולים מגיעים באורך כבל קצר – עד כמעט מטר (ברוב המקרים זה 80 ס"מ) ובדרך כלל הם יקראו בפשטות 100W PD USB C Cable (הנה דוגמא), כפי שאתם יכולים לראות בלינק – הכבל באורך 1 מטר אך הוא מסוגל להעביר וידאו 4K, נתונים במהירות 10 ג'יגהביט וחשמל 100W. כבל כזה יכול להתאים למקרים בהם רוצים לחבר מסך בחיבור Type C ללאפטופ קרוב. צריכים כבל באורך 1.80? יש את הכבל הזה, או את הכבל הזה, אך כפי שניתן לראות – אין מבחר רב, ולכן, בהתאם לצרכים – כדאי לרכוש גם כבלים קצרים (לתקשורת מהירה) וגם כבלים יותר ארוכים (טעינה עוצמתית).

בכל הקשור לכבלי USB Type C והעברת נתונים במהירות מעל 10 ג'יגהביט (USB 3.1 Gen 1 מעביר 5 ג'יגהביט, Gen 2 מעביר 10 ג'יגהביט, ו-USB 3.2 2X2 מעביר 40 ג'יגהביט) – כאן, לצערי, המצב יותר מורכב ומטעה – כבלים רבים המציינים כי הם מסוג USB 3.2 2X2 עם יכולת העברת נתונים במהירות 20 ג'יגהביט – הם לא יותר מכבלים שיכולים להעביר עד 10 ג'יגהביט (הנה דוגמא) ולכן אם אתם מחפשים כבל כזה (מתוך הנחה שהציוד שלכם אכן תומך במהירות 20 ו-40 ג'יגהביט) – יהיה מומלץ להסתכל על כבלים של Thunderbolt (ברוב המקרים זה יהיה תואם במהירויות הנ"ל, אך בכל מקרה כדאי לבדוק עם היצרן/המשווק של הציוד).

עניין חשוב נוסף הוא תמיכה בפיצול ב-USB Type C. יש לא מעט מפצלי USB שמוציאים מתוכם שלל חיבורים שלא קיימים במחשב הנייד (מספר חיבורי USB Type A, כניסה לכרטיסי SD, מיקרו SD, חיבור HDMI, חיבור Display Port ועוד). מפצלים אלו הם מעולים, אולם בדרך כלל כדאי לבדוק את הנקודות הבאות:

  • את חיבור החשמל למחשב הנייד יש להעביר דרך המפצל ולא ישירות למחשב הנייד. כך, ציוד אחר שמחובר ל-USB במפצל יקבל את החשמל הדרוש, וגם המחשב הנייד יקבל את צרכיו מבחינת חשמל.
  • אם צריך לחבר יותר ממסך אחד וברזולוציית 4K עם 60 פריימים לשניה דרך חיבור USB Type C – עדיף לחבר אותם ישירות מהמחשב למסך, הואיל וצריכת הנתונים שלהם גבוהה ורוב המסכים כיום עדיין לא תומכים בצורה מלאה ב-DSC (דחיסת העברת נתונים בין המחשב למסך), ואם ישנם מספר מכשירי USB הצורכים תעבורת נתונים גבוהה – נקבל תופעה של Frame drops.
  • אם יש למחשב חיבורי USB Type C ו-Thunderbolt, עדיף לחבר את המסך ישירות דרך ה-Thunderbolt.

לסיכום: פוסט זה נגע "על קצה המזלג" בעולם המורכב של USB ובמיוחד Type C. לא כל כבל USB Type C יכול להתאים למטרות שלנו ולא כל פרסום שיווקי על כבלים כאלו הוא נכון. אם אתם מחפשים מעל הכל חיבורים להעברת נתונים מאוד מהירה (מעל 10 ג'יגה) אני ממליץ לכם לחפש פתרונות של Thunderbolt, ואם אתם מחפשים לחבר סוגים שונים של ציוד לצורך טעינה ותצוגה – הסתכלו בפרטים שכתבתי לעיל.

בעל מצלמה/ות? אין צורך לרכוש עוד ועוד סוללות

לפני מספר ימים ביקרתי בחנות צילום כדי להתייעץ לגבי עדשה שמסקרנת אותי. במהלך השיחה עם אחד הנציגים, נכנס בסערה לקוח שביקש בדחיפות 2-3 סוללות למצלמת הקאנון שלו. הוא באמצע צילומים והוא גילה לחרדתו כי יש לו כרגע רק סוללה אחת פעילה. קורה.

אחד הדברים שחשוב לדעת לגבי סוללות ומצלמות במגזר הביתי/סמי-מקצועי – זה שיצרניות המצלמה מרוויחות אחוזים מרשימים ממכירת הסוללות. קחו לדוגמא את סוני בסידרת ה-6XXX שלה: עד ה-A6600 הוציאה סוני סוללות מיניאטוריות למצלמות, כך שאם היית רוצה ברצינות לעבוד עם המצלמה ולעבוד יום עבודה שלם איתה, היית צריך לגרור איתך לפחות 2-3 סוללות נוספות. סוני כמובן אינה היחידה עם הטריקים הללו, גם סוני, ניקון, פאנאסוניק, פנטקס ואחרות משתמשות באותו טריק.

רוב הצלמים המקצועיים מכירים את העניין ורבים מהם משתמשים בסוללת דמה, דבר שרבים מאלו שצלמים חובבים רבים – דווקא אינם מכירים.

לשם הדוגמא, אשתמש בסוני A6400 שברשותי. כמו כל בעל מצלמה, הייתי צריך להחליט אם לרכוש סוללות נוספות או לא, אך במקום זאת החלטתי לרכוש את שני הדברים החדשים:

הרכישה הראשונה שלי היתה סוללת דמה + ספק כח מאמזון. לסוללה עצמה אין כמובן כל כח אולם ספק הכח מדמה את העוצמה של סוללה רגילה, והוא מזרים אותו דרך סוללת הדמה אל המצלמה.

היתרון בפתרון זה הוא שאם אתה צריך לצלם במקום סגור שיש נקודות חשמל/גנרטור פעיל – תוכל לחבר את הספק ולצלם בלי הפסקה מבלי לדאוג כלל לסוללה.

אבל מה עושים אם צריך לצלם בחוץ ואין שום נקודת חשמל באזור? ובכן, לשם כך יש את הפתרון הבא המופיע בתמונה מימין.

גם כאן ישנה סוללת דמה, אך היא מחוברת לתקעי USB. מחברים חיבור USB אחד לתוך Power Bank ומתחילים לעבוד. חשוב להשתמש כמובן ב-Power bank רציני ואני יכול להמליץ בחום על ה-Power bank של חברת Xiaomi או Anker ועל הגרסאות של 20,000 מא"ש או 26800 מא"ש (ניתן לרכוש את גירסת ה-26800 של Anker מחברת באג בקישור כאן). פתרונות הכח הללו מחזיקים כמובן הרבה יותר זמן מכל סוללה רגילה שתכניס למצלמה, ואפשר לעבוד כך למשך שעות ארוכות, במיוחד אם רוצים לצלם Time lapse או צילומי כוכבים בלילה.

כיום, לכל מצלמה בחתך המשפחתי עד ה-סמי מקצועי קיימות סוללות דמה בשוק, רובן העתק של חברות כמו Tether tools ואחרות, כך שאם אתם חושבים לרכוש, בדקו מה אתם צריכים (גירסת חיבור לקיר או חיבור USB. את גירסת חיבור ה-USB ניתן לחבר גם למטעני USB רגילים, כל עוד הם מוציאים 5 וולט ויותר מ-2 אמפר באופן רציף. רוב המטענים החכמים (QI) יודעים לעשות זאת) ווודאו כי דגם המצלמה שלכם מכוסה!

נקודה נוספת וחשובה (לפחות במקרים של מצלמות סוני בסידרה 7, או 5XXX או 6XXX) – ישנן מצלמות שלא כל כך "מבינות" מה הן סוללות דמה, והן מנסות לחשב את אחוז הכח הנותר ולהציג אותו באחוזים, גם כשה"סוללה" תמיד כמובן תהיה טעונה (אם הסוללת דמה מחוברת דרך ספק לקיר לדוגמא) – וכך קורה שהאחוזים מתחילים לרדת. הכי חשוב: לא להתרגש מזה. בדרך כלל זה עוצר לאחר אחוזים ספורים, וגם אם תגיעו לאחוזים בודדים, כל מה שתצטרכו לעשות, זה לנתק את הסוללה ממקור הכח, להמתין מספר שניות, לחבר והופס – חזרנו ל-100%. אישית, זולת ירידה ל-94-95% לא היתה לי בעיה כזו, גם כששידרתי דרך המצלמה שידור דרך ה-HDMI למספר שעות ברציפות.

לסיכום: חבל לרכוש סוללות קנייניות במחיר יקר. סוללות דמה, בשילוב ספקי כח או Power Banks מודרניים יכולים לתת מספר גדול יותר של שעות עבודה וכל זאת ללא מורכבות מיותרת (יש חוט יחיד ל-Power bank לדוגמא, ואת הסוללה אפשר להכניס לכיס).

ה-NAS החדש

בשנים האחרונות היו לי מספר מכונות ששימשו כ-NAS ל-LAB שלי, ועל מנת להשאיר תשתית אופטימלית, צמצמתי את כמות המכונות שברשותי, כך שישארו רק מכונות שאני צריך, וכך במהלך החצי שנה האחרונה התפטרתי ממספר שרתים ומספר מכונות NAS שבניתי. מכונה אחת שירתה אותי בנאמנה במשך 8 שנים, וה-NAS האחרון שהיה רץ על שרת 2U של Supermicro – נתרם (ללא הדיסקים כמובן).

החלטתי לבנות מכונה חדשה, שהדברים החשובים לי בה היו:

  1. קיבולת גבוהה של דיסקים (הכנסתי בה 17 דיסקים, עוד 2 בקרוב)
  2. שקטה לגמרי
  3. נגישות מהירה לחלקים שונים כמו החלפת דיסקים/מעבד/זכרונות/כרטיסים וכו'
  4. בלי כל מיני "צעצועים" כמו RGB.

תודות לחברי היקר רפי אינשטיין, מצאתי את המארז האידיאלי – Antec P101 Silent שנמכר בארץ במחיר של 370 שקל. רכשתי את המארז, הוא הגיע והתחלתי להרכיב. להלן המפרט שאני משתמש במכונה:

  • מעבד: AMD Ryzen 2700 (תיכף אסביר מדוע)
  • זכרון: 64 ג'יגהבייט
  • לוח אם: ASUS X470-F
  • כרטיסי רשת: כרטיס רשת של Mellanox (דור שני) עם חיבורי +SFP ל-10 ג'יגה, וכרטיס רשת Broadcom NetXtreme BCM5715 (כרטיס עם 2 חיבורי 1 ג'יגה)
  • כרטיס תצוגה – GT 710 של Zotac (אני מאוד ממליץ על הכרטיס הזה. הוא נותן חיבורי מסך פופולריים – HDMI,DVI,VGA, והחיבור שלו הוא PCIe X1, כך שהוא לא יתפוס כניסות PCIe חשובות)
  • כרטיס Intel Optane 900p – הכרטיס הוא SSD מיוחד בגודל 280 ג'יגה. יקר (תציצו בלינק) – אבל שווה כל שקל אם אתם משתמשים ב-ZFS ובחיבור של 10 ג'יגהביט ומעלה.

מבחינת דיסקים, אלו הדיסקים שבפנים:

  • 8 דיסקים בגודל 6 טרהבייט של טושיבה מסידרת ה-Performance (כ-7200 RPM) – בהחלט סוסי עבודה
  • 6 דיסקים SSD SATA – סמסונג 860 EVO בגודל 512 ג'יגהבייט
  • 2 דיסקים SSD NVME מסוג סמסונג 960 EVO בגודל 512 ג'יגהבייט

(ברצוני להודות לחברת דגן מולטימדיה על הסיוע המהיר בכבלים ומפצלים – בלעדיהם הכל היה נתקע)

אחרי כמה שעות של חישובים וניסויים (אחרי הכל, ברגע שאתה מכניס כרטיס כלשהו, כמות נתיבי ה-PCIe הפנויים משתנה, ולפעמים יש גם "הפתעות". תודה מלאנוקס!), חיבור החלקים השונים – מגיע החלק הקריטי: מה להתקין על המערכת?

פתגם עתיק אומר "לכל 2 יהודים יש 3 דעות" – אז שאלתי לתומי וקיבלתי מגוון המלצות והצעות (רובם בהודעות פרטיות), אז להלן ההצעות ומדוע לא בחרתי בהן:

  • Proxmox, Xen Server, UnRaid – כל הפתרונות הללו מתאימים אם רוצים להריץ פתרון וירטואליזציה בראש ובראשונה על הברזל עם סבירות גבוהה שזה יהיה הברזל היחידי (כלומר "השרת היחידי"). במקרה שלי רציתי NAS שיהיה עצמאי ושיתן שרותי קבצים (ועוד מספר שרותים שירוצו כקונטיינרים עם Podman), כך שפתרונות אלו אינם מתאימים לי.
  • XPEnology – זהו פתרון בקוד פתוח של Synology והוא יכול להתאים ללא מעט אנשים, כל עוד הדרישות הן צנועות. במקרה שלי, אוטומטית הוא לא היה מכיר במחצית מהכרטיסים במחשב, אז הוא ירד מהאופציות עוד בהתחלה.
  • FreeNAS – זהו פתרון מעולה למי שמחפש פתרון "קופסתי פשוט" – כלומר קופסא שזורקים אליה כמות דיסקים, מתקינים FreeNAS, מבצעים כמה הגדרות פשוטות ומתחילים לעבוד. הבעיות עם פתרון כזה הן שמערכת כזו היא מצומצמת וקשה להוציא ממנה ביצועים משמעותיים (תאמינו לי, השתמשתי ב-FreeNAS במערכת הקודמת ובזבזתי ימים שלמים עליה) כשצריך מהירות גבוהה יותר מ-10 ג'יגהביט.
  • אובונטו – תהליך הטמעת ה-ZFS בהפצה זו הוא יותר "work in progress" וה-LTS (כלומר Long term support) זו בדיחה לא מוצלחת, למען האמת. מוותר על התענוג.

בסופו של דבר בחרתי ב-CentOS 8 (ליתר דיוק – CentOS 8.2.2004) מכמה סיבות פשוטות:

  • רקורד מוכח ב-Long Term: ה-NAS שהיה לי לתקופה של 8 שנים הריץ CentOS 6 (ששודרג בהמשך ל-CentOS 7) והוא נתן לי יציבות מעולה.
  • ZFS על CentOS – אחד הדברים הכי מנוסים והכי יציבים. לא מעט אלו שמריצים לינוקס עם ZFS מהמפתחים של ZFS on Linux (וכיום OpenZFS) מריצים ZFS על CentOS.
  • קלות התקנה: 3 פקודות. יבוא מפתח, 2 פקודות DNF – ויש ZFS במערכת.
  • לא חסר תמיכה.

יחד עם זאת: האם אמליץ על ה-OS הזה ל-ZFS לאנשים שאין להם נסיון בלינוקס או ZFS? לא. בוא נהיה מציאותיים: CentOS ו-ZFS מצריכים השקעה בלימוד דברים שונים, ואם מחפשים חיים יותר קלים (ולא מצפים לביצועים בשמיים) – אז FreeNAS ואובונטו הם פתרונות טובים.

מבחינת הגדרות, הגדרתי את הדברים כך:

  • 8 דיסקים מכניים הוכנסו ל-Pool בתצורת RAIDZ-2 (כלומר RAID 6 למי שלא מכיר את ZFS) כך שקיבלתי כ-43.7 טרהבייט מקום פנוי
  • 6 דיסקים SSD SATA הוכנסו ל-Pool שגם הוא בתצורת RAIDZ-2 כך שקיבלתי 2.78 טרהבייט מקום פנוי
  • SSD NVME אחד "הוקרב" לטובת ה-OS עצמו (כך שהוא אינו חלק מ-ZFS. יש היום תמיכת Boot ב-GRUB2 מ-ZFS אבל ליתר בטחון אני מעדיף שדיסק ה-OS יהיה עצמאי ולא כחלק מ-ZFS ואם הוא נדפק, דיסק און קי עם CentOS ו-ZFS יכול לשמש כתחליף חרום).
  • ה-SSD NVME השני חולק ל-2, כך שכל Pool מקבל 240 ג'יגהבייט כ-Cache.
  • ה-Optane חולק ל-2 כך שכל Pool קיבל 40 ג'יגהבייט ZIL. מכיוון ש-Optane 900p (והגירסה היותר מתקדמת שלו 905P או גירסאות ה-Enterprise – ה-P4800X) ניחנים ב-Latency הרבה יותר נמוך מכל SSD שקיים בשוק (הוא לא משתמש ב-Flash) – ביצועי הכתיבה – גבוהים.

אז .. איך הביצועים? להלן צילום מסך (לחצו להגדלה).

מה שרואים בתמונה זו הוא שכל הדיסקים המכניים כותבים במקסימום מהירות אפשרית, וה-ZIL (שמופיע כ-logs) מקבל כמות זהה של נתונים לכתיבה (ה-ZIL בעצם מקבל את הנתונים שאמורים להיכתב – לפני שהם מגיעים לדיסקים הקשיחים לכתיבה מעשית). בפועל זה נראה יותר כך:

כלומר קצב הכתיבה נע בין 300-800 מגהבייט לשניה, תלוי מה הנתונים ותלוי אם ה-ZFS יכול לדחוס אותם (לדוגמא: קבצי VMDK שהם flat – יש לא מעט מקום לדחיסה, כך שבמקרים כאלו אני מקבל קצב כתיבה ממוצע של 770 מגהבייט לשניה). מבחינת קצב קריאה – אני מקבל רצוף בסביבות ה-700 מגהבייט לשניה (זה מה שקורה כשמנסים להכניס כרטיס רשת Mellanox ConnectX-3 לתוך כניסת PCIe 2.0, טופל בעת כתיבת פוסט זה)

וכך זה נראה במכונת Windows וירטואלית שרצה תחת vSphere 6.7 כאשר ה-Datastore מגיע מ-NFS V3 והתוצאות הן ללא טריקים של Cache, Write back וכו'.

עד כה המערכת רצה ללא תקלות, אך יחד עם זאת – יש לי עוד דברים לבדוק, כמו העניין הדי תמוה שכתיבה על הדיסקים SSD שנמצאים ב-pool משלהם – מהירות הכתיבה מגיעה עד 160 מגה במקום 550 מגה (לא קשור לכרטיס HBA כלשהו) ועוד כמה דברים פה ושם שאני רוצה לבדוק, לחבר למערכת ניטור וכו' וכו'.

האם הייתי ממליץ להקים מערכת כזו לאחרים? תלוי למי. למשרד או לארגון? לא, אלא אם מוכנים ורוצים להשקיע שם בלבצע אופטימיזציה. לכל מי שרוצה פתרון קל או מוכן, הייתי ממליץ לרכוש קופסא, להכניס דיסקים, לבצע הגדרות ראשוניות ולהתחיל לעבוד. במקרים אחרים שרוצים ביצועים גבוהים ומוכנים להשקיע – ZFS יכול להיות פתרון טוב מאוד, אך שוב – זהו פתרון שמצריך השקעה וזמן, יש המון הגדרות והמון סיטואציות שמצריכות הגדרות ספציפיות על מנת לקבל תוצאות גבוהות. לאלו שיש להם את הציוד בבית ורוצים להשקיע בלימוד אחסון ו-ZFS – אני בהחלט ממליץ ללמוד.

במזל טוב, VVC Codec הוכרז, מה זה אומר?

לאחרונה התבשרנו כי ה- Joint Video Experts Team (JVET) הכריז על Codec חדש, ה-VCC, או בשם היותר פופולרי H.266. תכנון ה-Codec במכון Fraunhofer הסתיים וכבר בחורף הקרוב יצא קוד אב-טיפוס לפענוח וקידוד תכנים בתוכנה (על לינוקס) – בעזרת Codec זה.

מה זה בעצם אומר?

כשזה מגיע לתכנון ושימוש ב-Codecs, יש לא מעט Codecs שקיימים בשוק. רובם לא מוכרים לאלו העובדים בתחום האודיו/וידאו אך בהחלט מוכרים בעולם התוכנה והחומרה. קחו לדוגמא Codecs כמו DIRAC או AV1 או או SNOW (אלו רק דוגמאות ספורות ל-Video Codecs) או OGG, Flac, Vorbix, CELT, OPUS, Speex (כולם Codecs ל-Audio) מוכרים לכם? כמה השתמשתם בהם? ברוב המקרים התשובה תהיה "לא משתמשים" – אולם אם אתם משתמשים ב-Whatsapp, Messenger, ותוכנות וידאו צ'אט אחרות – שם בהחלט נעשה שימוש בחלק מאותם Codecs שציינתי. ה-Codecs היותר מוכרים נמצאים בשימוש מתמיד בעולם הוידאו/אודיו המסחרי לשידור תכנים בזרימה.

החלק הבעייתי ביותר לכל Codec הוא אדפטציה ושימוש בו, הן מבחינה טכנית והן מבחינה "פוליטית".

בואו ניקח לדוגמא את ה-Codec הידוע H.265 (או כפי שהוא יותר ידוע – HEVC): הוא יצא לשוק ב-2013, אך האימוץ שלו בשוק היה מאוחר, הוא ומי שבעצם גרם לחברות "לברוח" מאימוץ שלו הוא הגוף שאחראי על רישוי ה-Codec כולל פטנטים וכו', ה-MPEG LA. כשה-Codec יצא, התנאים לשימוש בו היו מטורפים לחלוטין מבחינת סכומים לתשלום פר מכשיר/פר תוכנה שתשתמש ב-Codec, ומחירים מטורפים ליצרני מצלמות – הצליחו להניא את רוב ה"לקוחות הפוטנציאלים" משימוש באותו Codec למשך מספר שנים, עד שה-MEPG LA ירד מהעץ, ואז החל אימוץ של ה-Codec ע"י רוב החברות.

עוד Codec שמתחיל לתפוס תאוצה הוא ה-AV1. בניגוד ל-H.265, כאן הלקוחות הפוטנציאליים (יצרני ציוד, טלויזיות וכו' וכו') לא יצטרכו לשלם תמלוגים על שימוש ב-Codec זה, אך התחרות מול H.266 הולכת להיות מעניינת. בשני המקרים מדובר על Codecs תחרותיים שיודעים לחסוך בתעבורת נתונים – אך כולם מחכים לראות אלו גופים גדולים יעמדו מאחורי ה-Codecs, וכרגע – רוב החברות המסורתיות (יצרני מצלמות וטלויזיות לדוגמא) עומדים מאחורי שני ה-Codecs אולם גוגל נותנת יותר דגש ל-AV1 בשעה שאפל נותנת יותר גב ל-H.266, כך שיקחו כמה שנים טובות עד שנוכל לדעת מי ניצח במלחמת ה-Codecs הספציפיים הללו.

מה לגבי שימוש ב-Codecs הללו בעריכה? (הרי בסופו של יום, אם יצרני מצלמות יאמצו את ה-H.266, מצלמות בקצה התחתון והבינוני פשוט יקליטו רק ב-Codec זה) – כאן בדרך כלל הבעיה מתחילה להתעורר: משאבי עיבוד. Codecs כמו H.264/H.265 נתמכים על הסיליקון של כרטיסי ה-GPU ומעבדים שונים (בטלפון, מעבדים למחשבים, טלויזיות, טאבלטים וכו') ובכך ניתן להציג וידאו מקודד באותם Codecs שהשבבים תומכים – מבלי לצרוך יותר מדי חשמל (עניין חשוב במכשירים כמו טאבלטים וטלפונים), אולם ברגע שה-Codecs אינם נתמכים בצורה טבעית – יהיה צורך לפענח/לקודד את הוידאו עם המעבדים עצמם ובעזרת תוכנות ללא כל "סיוע" של המעבד, וזהו דבר שהוא לא רק איטי, הוא גם צורך משאבים מרובים, ולכן כל יצרני תוכנות עריכת וידאו אינן תומכות ב-Export ב-Codecs שאין להם תמיכת חומרה – עד שיוצאים פתרונות הכוללים תמיכה באותו Codecs כמו כרטיסים גרפיים חדשים, ומעבדים חדשים ל-PC, סלולר וכו'.

ומה קורה כיום?

כיום, כל יצרני החומרה השונים תומכים ב-H.264, H.265, וב-VP9 של גוגל (למעט אפל). כיום, התמיכה הולכת וגודלת (בקצב איטי) ל-AV1. סמסונג ו-LG הכריזו כי בטלויזיות ה-8K שלהם תהיה תמיכה לניגון וידאו AV1, חברת MediaTek הכריזה על מעבד Dimensity 1000 שיתמוך ב-AV1 עם ניגון עד 4K ב-60 פריימים לשניה ואילו חברת Chip&Media החליטה להתעלות מעל כולם ולהציע תמיכה וניגון קבצים בקידוד AV1 עם רזולוציה של 4K עד 120 פריימים לשניה (שימושי? לא חושב). הכרזה חשובה נוספת יצאה מחברת Amlogic על 3 מעבדים חדשים שיכללו תמיכה ב-AV1. הסיבה לחשיבות ההכרזה – כמעט כל יצרני מכשירי אנדרואיד TV (בטלויזיה עצמה או כסטרימר) כוללים את השבבים של Amlogic. ישנה גם חברות שהחלו להזרים וידאו ב-AV1 לחלק ממכשירי האנדרואיד, אולי שמעתם עליהן: נטפליקס ו-יוטיוב. (אתם יכולים לצפות בערימת קליפים שמקודדים ב-AV1 כאן. שימו לב שהרזולוציה המקסימלית של הקליפים היא 1080P). אתם יכולים גם להשוות בין HEVC ל-AV1 כאן.

הבעיה? אין חומרה שתומכת ב-AV1.

תמיכה ב-AV1 (פריסה בלבד) תהיה במעבדים בדור הבא של אינטל (Tiger Lake) וכפי הנראה שתמיכת חומרה ב-GPU תהיה בכרטיסי RTX 3XXX שיצאו כפי הנראה לקראת סוף השנה ותחילת השנה הבאה, ורק אז נראה תמיכה את תחילתה של תמיכה בקידוד קבצי AV1 בתוכנות עריכה (מי שמתעקש ורוצה להוציא AV1 כיום מתוכנות כמו Premiere Pro, יצטרך קצת להפשיל שרוולים ולעקוב אחר ההוראות כאן כיצד לחבר בין Premiere Pro ל-FFMPEG ומשם לקודד כ-AV1 (שימו לב שהמקום היחידי שמקבל קבצים כאלו זה יוטיוב וגם אז – עד 1080P, וצריך מעבד די חזק לעבד את הוידאו).

לסיכום: ל-Codec לוקח לפחות 2-4 שנים עד שדברים מתחילים לזוז להיכן שהוא, ולא חשוב אם יש לו גב מסחרי כמו MPEG-LA או Codec שעומדת מאחוריו גוגל וחברות רבות הצטרפו ואין צורך בתשלום תמלוגים. H.266 נשמע נחמד, אבל זו בדיוק גם הפינה של AV1 (לחתוך ב-50% תעבורה של H.265) ולכן אני מאמין שיהיה מאבק, ובכל מקרה לא נראה תמיכה משמעותית לאף Codec מבחינת חומרה לפחות עד השנה הבאה.

המחשב שלך מכניס לך פרנסה? קרא את הפוסט

כפרילאנסר יועץ, אחד הדברים הראשונים שעשיתי כשבניתי את ה-Workflow שלי, זה להכין סביבה שהיא כמה שיותר "מעוננת". אם מחר בבוקר מחשב הדסקטופ שלי מפסיק לעבוד, הלאפטופ גם מפסיק לעבוד ובנוסף יש לי הפסקת חשמל, תהיה לי אפשרות לספק פתרונות ללקוחות ברוב המקרים. בסופו של יום, פרילאנסר רציני בתחומים שלי חייב לצפות לסיטואציות שהלקוח ירצה מסמכים שונים או קישורים שונים פה ועכשיו בכדי להבין דברים או בכדי לחזק את מה שאתה מצהיר.

יש לעומת זאת מקרים בהם אין אפשרות לעבוד בענן הציבורי ועדיין צריך מחשב נייח או נייד. קחו לדוגמא את עורכי האודיו והוידאו, אפקטים, תלת מימד וכו'. ברוב מוחלט של המקרים הם צריכים את החומרה שלהם וסביר מאוד להניח שהתוכן נמצא מאוחסן באותו מחשב (מתוך תקווה שיש להם גיבוי בדיסק חיצוני או NAS).

עובדה פשוטה וידועה היא, ש-Windows זו מערכת הפעלה שאוהבת .. להפתיע, ולא לטובה. לפעמים מערכת ההפעלה קורסת עם מסך כחול וסמיילי עצוב, לפעמים אפליקציות נתקעות, ולפעמים המחשב לא מגיב, סתם כך, בפתאומיות, ולך תחפש פתרון לבעיה. מיקרוסופט נוטה להפוך את המשתמשים שלה לבוחני BETA, ושילכו לכל הרוחות אם דברים נתקעים (תקראו את ה-EULA של Windows).

וכאן מתחילה הבעיה של חיפוש פתרון: אתרים רבים מתחזים לתת פתרונות – בכך שהם דוחפים רכישה של מוצר (שכמובן לא יעזור לפתרון הבעיה), התמיכה הוובית של מיקרוסופט (answers.microsoft.com, אני מעדיף אפילו לא לקשר לשם!) שווה בערך כמו לשאול את החתולים שלי לגבי הצעות לפתרונות, ובפורומים שונים ברוב המקרים תקבל כמה וכמה תשובות, כאשר רובן כלל לא רלוונטיות או לא נכונות. מה לגבי טכנאי מחשבים שונים ששומעים עליהם את הלל כמה הם מעולים ומקצועיים? חלקם אולי כאלו, אך לצערי חלקם הגדול עדיין לא יודע אפילו לשאוב את כל הפרטים מ-Windows (רמז, זה קצת יותר מ-Event Viewer) לגבי התקלות. דוגמא? נסו לפתור תקלה עם Code 10 שלא נפתרת גם כשהתקנתם דרייברים מחדש, או דרייברים אחרים.

לכן, אם מישהו הוא פרילאנסר והמחשב שלו מייצר בתחומו את פרנסתו, אותו אדם צריך לבצע כמה דברים כדי להמעיט כמה שיותר מקרים של Down Time:

  1. הדבר הראשון שחשוב לעשות, הוא לרכוש/להשתמש במחשב יעודי שעליו יותקנו וירוצו רק האפליקציות המשמשות לעבודה ותו לא. לא משחקים, לא כלים אחרים, לא מייל, וכו'. רק את התוכנות שצריך.
  2. הדבר השני החשוב – הוא לעבוד בתצורה של 2 דיסקים תמיד. דיסק אחד הוא דיסק עם מערכת הפעלה, ודיסק שני הוא דיסק מדיה לאחסון התכנים, כאשר הכל נשמע מבחינת תכנים בדיסק השני ואם עובדים על יצירת/עריכת תכנים – עובדים אך ורק על הדיסק השני. מחירי דיסקים SSD ירדו וממשיכים לרדת וכדאי לנצל זאת, ואם אין מקום במחשב הנייד לדיסק SSD שני, תמיד קיימים דיסקים SSD חיצוניים או שאפשר לרכוש מתאמים חיצוניים שלתוכם מלבישים דיסקים SSD שבמקור יועדו להיות פנימיים (זה גם יוצא יותר זול, אל תהיו iJustine וחבריה).
  3. הדבר השלישי שהוא הכי חשוב – הוא לרכוש או להתקין תוכנת גיבוי שיודעת לגבות דיסקים (לא רק לגבות קבצים). תוכנות כמו Macrium Reflect (היא חינמית וניתנת לשדרוג תמורת סכום נמוך) יכולה לגבות את המחשב שלכם לדיסק חיצוני או NAS כל כמה זמן שתרצו ולכן מומלץ להגדיר לה פרק זמן גיבוי של לפחות אחת לשבוע לדיסק חיצוני או NAS. הגיבוי עצמו יכלול רק את ה-SSD שכולל את מערכות ההפעלה. את התכנים תגבו בצורה אחרת לדיסק חיצוני או NAS.
  4. עבדו בחוכמה – אל תחליפו/תשדרגו תוכנות רק כי שמעתם דברים חיוביים לגבי תוכנות אלו ואחרות. קודם כל צרו גיבוי ואז התקינו את מה שאתם רוצים.
  5. רוצים לחזור אחורה? הפעילו את ה-Boot Media שתוכנת הגיבוי יוצרת (זה דרך כלל דיסק און קי שהתוכנה מאפשרת ליצור), התחברו לדיסק החיצוני או ל-NAS ושחזרו גיבוי אחרון. אם שמרתם את קבצי המדיה/פרויקטים וכו' בדיסק השני בלבד, השחזור לא ידפוק שום דבר בתהליך. אם לעומת זאת "בטעות" שמרתם על הדיסק הראשון, העבירו לדיסק שני ואז תשחזרו.

לסיכום: מחשב יעודי שלא מתקינים עליו כל מיני אפליקציות זבל/משחקים/תוכנות לא נחוצות, שמגובה תדיר – יעזור מאוד ב-Workflow שמכניס עבורכם כסף. תמיכה בפורומים או מ-לא מעט טכנאי מחשבים תהיה שווה כמו כוסות רוח למת. גיבוי, שחזור יכול להיות הדבר שיעזור לכם במקרים הכי דחופים והתהליך גיבוי/שחזור הוא יחסית די קצר וברוב המקרים יעזור המון.

בהצלחה.

Exit mobile version