כמה נזק עשתה Skynet: מכתב פתוח קורא להפסקת ניסויי AI בקנה מידה גדול מאת ChatGPT 4

עצור את ChatGPT 4

כן, כמה נזק עשתה Skynet. אני לא חושב שלדבר על יצירה שפרסמה את הפרק הראשון שלה לפני כמעט 40 שנה (1984) זה לא מקלקל, אבל לפני ארבעה עשורים לא הייתה בינה מלאכותית מעבר לתוכניות קטנות שלמדו קצת והניחו לדמיון שלכם להשתולל. כך נוצרה דמותו של Skynet, תוכנית שלמדה מעצמה והשתפרה והשתפרה עד שנעשתה מודעת לעצמה, "פחדה" ללמוד שהיא עומדת להכבה ולסיים את האנושות כפי שהיא הייתה ידועה בשיגור טילים בין ארה"ב לרוסיה... המתקדם ביותר שקיים עכשיו, לפחות זה ידוע, הוא ChatGPT4, והשיפורים שלה באו להפחיד או, לפחות, לעצבן.

אבל בואו נרד לנקודה יותר ריאלית. הדאגה של החותמים על ה מכתב פתוח, כולל אילון מאסק, יש דאגות אחרות, או אחת ללא טופס מלא. הוא הפחד שלהם הוא מהלא נודע, אחד הפחדים הנפוצים ביותר, הוא ש-OpenAI וקרנות, תוכניות ופרויקטים אחרים משפרים את האינטליגנציה המלאכותית שלהם כאילו זה היה מרוץ לראות מי מגיע רחוק יותר ומתי, וזה יכול לתת תוצאות שונות.

ChatGPT 4 באור הזרקורים

עם גרסה < 4 של צ'אטבוט OpenAI, הדברים נראו יותר "מצחיקים" או "חמודים", השתמש באיזו מילה שתעדיף. שואלים אותו דברים והוא עונה; אתה מתבקש לתקן קטע קוד ואתה עושה זאת; אתה שואל אותו למשמעות של מכתב משיר או סרט והוא מסביר לך את זה; אבל ChatGPT 4 הרחיק לכת. התשובות שלך השתפרו מאוד, ואתה יכול אפילו לייצר תוכן שעלול להיות שקרי.

כי זה אחד החששות שמוזכרים: בואו נדמיין שאני כותב מאמר מפורט מאוד על הסיבה לכך שהאדם מעולם לא הגיע לירח. למאמר זה יש ביקורים רבים והוא משותף בכל מקום, אם כי במקרים מסוימים זה כדי לבקר אותו. מאוחר יותר, אנו מבקשים מ-ChatGPT מה קרה באותו רגע, לכתוב לנו מאמר על אותו אירוע, הוא כותב לנו משהו על סמך מה שכתבתי ומכיוון שאין לו את היכולת לזהות חדשות מזויפות, כתוב לנו משהו שקרי. זה, או עם דוגמה טובה יותר, עלול להציף את הרשתות.

הפסקה של 6 חודשים לבקרת לימודים

מה שנדרש זהכל מעבדות הבינה המלאכותית להשהות לפחות 6 חודשים את האימון של מערכות בינה מלאכותיות חזקות יותר מ-ChatGPT-4. הפסקה זו צריכה להיות ציבורית וניתנת לאימות, ולכלול את כל שחקני המפתח. אם לא ניתן לבצע את ההפסקה במהירות, על הממשלות להגביר ולהנהיג מורטוריום.".

כל המעבדות ומומחים בלתי תלויים צריכים לנצל את הזמן הזה ליישם קבוצה של פרוטוקולי אבטחה, שתורגם יכול להיתפס כדרך נוספת לומר שצריך לכתוב חוקים דומים לחוקי הרובוטיקה המפורסמים.

האם זה לא אותו דבר לגבי ממשלות?

מה שמדהים אותי באופן אישי הוא נקודה שבה הוא אומר שבמקביל, מפתחי בינה מלאכותית צריכים לעבוד עם קובעי מדיניות כדי להאיץ את הפיתוח של בינה מלאכותית עבור מערכות ממשלתיות. זאת אומרת, לעזור לממשלות עם הבינה המלאכותית שלהן להיות מסוגל, בכמה מילים, לשלוט בבינה מלאכותית. תעשה מה שאני אומר, לא מה שאני עושה.

זה שהמכתב נחתם על ידי אילון מאסק לא מפתיע אותי. נחשף כי הוא היה שותף להקמת OpenAI, ונראה כי לאחר שעזב את החברה, הצלחתו פוגעת. לגבי השאר, כן, זה נכון שבינה מלאכותית, אינטליגנטית ככל שתהיה, בקבלת החלטות נאמר שהיא אינה טובה יותר מילד בן 7, ושאולי קשה להם להבדיל בין אמת לילד בן XNUMX. מידע שקרי. , אז הנקודה של חדשות מזויפות היא אפשרות ויש לנקוט פעולה. לגבי כל השאר, אני חושב שכל עוד לא נותנים להם את קודי שיגור הטילים, הדברים לא נראים כל כך רע. אני מקווה שאני לא טועה.


השאירו את התגובה שלכם

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *

*

*

  1. אחראי על הנתונים: AB Internet Networks 2008 SL
  2. מטרת הנתונים: בקרת ספאם, ניהול תגובות.
  3. לגיטימציה: הסכמתך
  4. מסירת הנתונים: הנתונים לא יועברו לצדדים שלישיים אלא בהתחייבות חוקית.
  5. אחסון נתונים: מסד נתונים המתארח על ידי Occentus Networks (EU)
  6. זכויות: בכל עת תוכל להגביל, לשחזר ולמחוק את המידע שלך.