להלן פוסט אורח וחוות דעת של אחמד שדיד, מייסד O.Xyz.
תחת העילה הרופפת של היעילות, המחלקה ליעילות הממשלתית (DOGE) משמיעה את כוח העבודה שלה. בדו"ח עצמאי עולה כי דוג 'צמצם סביב 222,000 קיצוצים בעבודה במרץ בלבד. הקיצוצים פוגעים הכי קשה באזורים שבהם ארה"ב הכי פחות יכולה להרשות לעצמה ליפול מאחור – בינה מלאכותית ופיתוח מוליכים למחצה.
כעת השאלה הגדולה יותר היא מעבר לחוטם את כוח העבודה – היא שהמחלקת היעילות הממשלתית של מאסק משתמשת בבינה מלאכותית כדי לחטט באמצעות תקשורת עובדים פדרליים, וציד כל ריח של חוסר נאמנות. זה כבר מתגנב סביב ה- EPA.
הדחיפה הראשונה של AI של דוג 'לכווץ סוכנויות פדרליות מרגישות כמו עמק הסיליקון נעלמה-תופסת נתונים, אוטומציה של פונקציות, ומאירה כלים אפויים למחצה כמו צ'אט "ברמת המתמחה" של GSA כדי להצדיק חתכים. זה פזיז.
מלבד זאת, על פי דו"ח – "טכנולוגים" של דוג 'פורסים את Grok AI של מאסק כדי לפקח על עובדי הסוכנות להגנת הסביבה עם תוכניות לסחף קיצוצים ממשלתיים.
עובדים פדרליים, המורגלים מזמן לשקיפות בדוא"ל בגלל חוקי הרשומות הציבוריות, מתמודדים כעת עם כלים היפר-אינטליגנטיים המנתחים את כל המילה שלהם.
כיצד יכולים העובדים הפדרליים לסמוך על מערכת בה מעקב AI משויך לפיטורים המוניים? האם ארצות הברית נסחפת בשקט לעבר דיסטופיה מעקב, כאשר בינה מלאכותית מגבירה את האיום?
מעקב המופעל על ידי AI
האם ניתן לסמוך על מודל ה- AI שהוכשר על נתוני ממשלה? מלבד זאת, השימוש ב- AI לבירוקרטיה מורכבת מזמין מלכודות קלאסיות: הטיות – מבקש דגלי עזרה של GSA עצמה ללא אכיפה ברורה.
האיחוד הגובר של המידע במודלים של AI מהווה איום הולכת וגובר על הפרטיות. מלבד זאת, מאסק ודוג 'מפרים גם את חוק הפרטיות משנת 1974. חוק הפרטיות משנת 1974 נכנס לתוקף במהלך שערוריית ווטרגייט שמטרתה לרסן את השימוש לרעה בנתונים המוחזקים על ידי הממשלה.
על פי המעשה – אף אחד לא, אפילו לא עובדי הממשלה המיוחדים – צריך לגשת לסוכנות "מערכות רשומות" ללא הרשאה נאותה על פי החוק. כעת נראה כי הדוג מפרה את חוק הפרטיות בשם היעילות. האם הדחיפה ליעילות הממשלתית שווה לסכן את פרטיותם של האמריקאים?
מעקב כבר לא קשור רק למצלמות או במילות מפתח. זה קשור למי שמעבד את האותות, מי הבעלים של הדגמים, ומי מחליט מה חשוב. ללא ממשל ציבורי חזק, כיוון זה מסתיים בכך שתשתית בשליטת חברות מעצבת את אופן הפעולה של הממשלה. זה קובע תקדים מסוכן. אמון הציבור ב- AI ייחלש אם אנשים מאמינים כי החלטות מתקבלות על ידי מערכות אטומות מחוץ לשליטה דמוקרטית. הממשלה הפדרלית אמורה לקבוע סטנדרטים ולא למיקור חוץ למיקור חוץ.
מה עומד על כף המאזניים?
הקרן הלאומית למדע (NSF) חתכה לאחרונה יותר מ -150 עובדים, ודיווחים פנימיים מראים כי קיצוצים עמוקים עוד יותר מגיעים. ה- NSF מממן מחקרי AI ומוליכים למחצה ביקורתיים על אוניברסיטאות ומוסדות ציבוריים. תוכניות אלה תומכות בכל דבר, החל ממודלים של למידת מכונות יסוד ועד חדשנות לארכיטקטורת שבבים. הבית הלבן מציע גם קיצוץ תקציבי של שני שלישים ל- NSF. זה מחקה את הבסיס התומך בתחרותיות האמריקאית ב- AI.
המכון הלאומי לתקנים וטכנולוגיה (NIST) עומד בפני נזק דומה. כמעט 500 עובדי NIST נמצאים על אבן החיתוך. אלה כוללים את מרבית הצוותים האחראים לתוכניות התמריצים של חוק CHIPS ואסטרטגיות מו"פ. NIST מנהל את מכון הבטיחות בארה"ב AI ויצר את מסגרת ניהול הסיכונים של AI.
האם Doge מאכיל נתונים ציבוריים חסויים למגזר הפרטי?
מעורבותו של דוג מעלה גם דאגה קריטית יותר מהסודיות. המחלקה זכתה בשקט גישה גורפת לרישומים פדרליים ולמערכות נתונים של סוכנות. מהדיווחים מציעים כי כלי AI מסרקים נתונים אלה כדי לזהות פונקציות לאוטומציה. אז הממשל מאפשר כעת לשחקנים פרטיים לעבד מידע רגיש על פעולות ממשלתיות, שירותים ציבוריים וזרימות עבודה רגולטוריות.
זהו מכפיל סיכונים. מערכות AI שהוכשרו על נתונים רגישים זקוקים לפיקוח ולא רק יעדי יעילות. המהלך מעביר נתונים ציבוריים לידיים פרטיות ללא מעקות מדיניות ברורות. זה גם פותח את הדלת למערכות מוטות או לא מדויקות שמקבלות החלטות המשפיעות על חייהם האמיתיים. אלגוריתמים אינם מחליפים אחריות.
אין שום שקיפות סביב מה שנתונים משתמשים ב- Doge, באילו דגמים שהוא פורס, או כיצד סוכנויות מאמתות את התפוקות. עובדים פדרליים מסתיימים על פי המלצות AI. ההיגיון, המשקל וההנחות של אותם דגמים אינם זמינים לציבור. זה כישלון ממשל.
למה לצפות?
מעקב לא מייעל ממשלה, ללא חוקים, פיקוח או אפילו שקיפות בסיסית, הוא פשוט מוליד פחד. וכאשר משמשת בינה מלאכותית לפיקוח על נאמנות או לסמל מילים כמו "גיוון", איננו מייעלים את הממשלה – אנו משמיעים את האמון בזה.
עובדים פדרליים לא צריכים לתהות אם הם מתבוננים בהם מבצעים את עבודתם או לומר את הדבר הלא נכון בפגישה. זה גם מדגיש את הצורך במודלי AI טובים ואמינים יותר שיכולים לעמוד באתגרים והתקנים הספציפיים הנדרשים בשירות הציבורי.