זה בהחלט מרגיש ככה עכשיו. במהלך השבוע האחרון לערך, צילומי מסך של שיחות עם ChatGPT, האיטרציה החדשה ביותר של מודל הבינה המלאכותית שפותחה על ידי חברת המחקר OpenAI, הפכו לוויראליים ברשתות החברתיות. אנשים כיוונו את הכלי, שזמין באופן חופשי באינטרנט, לעשות בדיחות, לכתוב פרקי טלוויזיה, להלחין מוזיקה ואפילו לנפות באגים בקוד מחשב - כל הדברים שהבאתי ל-AI לעשות. יותר ממיליון אנשים שיחקו עכשיו עם ה-AI, ולמרות שזה לא תמיד אומר את האמת או הגיוני, זה עדיין כותב די טוב ובולשיטר בטוח אפילו יותר. יחד עם העדכונים האחרונים ל-DALL-E, תוכנת הדור האמנותי של OpenAI, ו-Lensa AI, פלטפורמה שנויה במחלוקת שיכולה לייצר פורטרטים דיגיטליים בעזרת למידת מכונה, GPT היא קריאת התעוררות חדה לכך שהבינה המלאכותית מתחילה להתחרות ביכולת האנושית , לפחות לגבי כמה דברים.
"אני חושב שהדברים השתנו בצורה דרמטית מאוד", אמר מוליק ל-Recode. "ואני חושב שזה רק עניין של זמן שאנשים ישימו לב".
אם אתה לא משוכנע, אתה יכול לנסות את זה בעצמך כאן. המערכת פועלת כמו כל צ'אטבוט מקוון, ואתה יכול פשוט להקליד ולשלוח כל שאלה או הנחיה שתרצה שה-AI יענה.
איך GPT עובד בכלל? בבסיסה, הטכנולוגיה מבוססת על סוג של בינה מלאכותית הנקראת מודל שפה, מערכת חיזוי המנחשת בעצם מה עליה לכתוב, בהתבסס על טקסטים קודמים שהיא עיבדה. GPT נבנתה על ידי אימון AI שלה עם כמות גדולה במיוחד של נתונים, שחלק גדול מהם מגיע מההיצע העצום של נתונים באינטרנט, יחד עם מיליארדי דולרים, כולל מימון ראשוני מכמה מיליארדרים טכנולוגיים בולטים, כולל ריד הופמן ופיטר ת'יל. . ChatGPT הוכשר גם על דוגמאות של שיחות אנושיות הלוך ושוב, מה שעוזר לה לגרום לדיאלוג שלה להישמע הרבה יותר אנושי, כפי שמסביר פוסט בבלוג שפרסם OpenAI.
OpenAI מנסה למסחר את הטכנולוגיה שלה, אבל המהדורה הנוכחית הזו אמורה לאפשר לציבור לבדוק אותה. החברה עלתה לכותרות לפני שנתיים כשהוציאה את GPT-3, איטרציה של הטכנולוגיה שיכולה להפיק שירים, משחקי תפקידים ולענות על כמה שאלות. הגרסה החדשה ביותר של הטכנולוגיה היא GPT-3.5, ו-ChatGPT, הצ'אט-בוט המקביל שלו, אפילו טוב יותר ביצירת טקסט מקודמו. זה גם די טוב בביצוע הוראות, כמו, "כתוב סיפור קצר של צפרדע וקרפד שבו צפרדע משקיעה בניירות ערך מגובי משכנתאות." (הסיפור מסתיים בכך שקרפד עוקב אחר עצתו של צפרדע ומשקיע בניירות ערך מגובי משכנתאות, ומגיע למסקנה ש"לפעמים לקחת קצת סיכון יכול להשתלם בסופו של דבר").
לטכנולוגיה בהחלט יש פגמים. למרות שהמערכת מתוכננת תיאורטית לא לחצות כמה קווים אדומים מוסריים - זה ברור שהיטלר היה רע - לא קשה להערים על ה-AI לחלוק עצות כיצד לעסוק בכל מיני פעילויות מרושעות ומרושעות, במיוחד אם אתה מספר לצ'טבוט שזה כתיבת סיפורת. המערכת, כמו דגמי AI אחרים, יכולה לומר גם דברים מוטים ופוגעניים. כפי שהסבירה עמיתי סיגל סמואל, גרסה קודמת של GPT יצרה תוכן איסלמופובי ביותר, וגם יצרה כמה נקודות דיבור יפות לגבי היחס למוסלמים האויגורים בסין.
גם היכולות המרשימות של GPT וגם המגבלות שלה משקפות את העובדה שהטכנולוגיה פועלת כמו גרסה של הצעות הכתיבה החכמות של גוגל, ויוצרת רעיונות על סמך מה שהיא קראה ועיבדה קודם לכן. מסיבה זו, הבינה המלאכותית יכולה להישמע בטוחה ביותר מבלי להציג הבנה עמוקה במיוחד של הנושא עליו הוא כותב. זו גם הסיבה שקל יותר ל-GPT לכתוב על נושאים נפוצים, כמו מחזה של שייקספיר או חשיבות המיטוכונדריה.
"הוא רוצה לייצר טקסטים שנראים לו סבירים, בהתחשב בכל מה שהוא ראה בעבר", מסביר וינסנט קוניצר, פרופסור למדעי המחשב בקרנגי מלון. "אולי זה נשמע קצת גנרי לפעמים, אבל זה כותב בצורה ברורה מאוד. זה כנראה ישחזר נקודות שהועלו לא פעם על הנושא המסוים הזה, כי זה למעשה למד איזה סוג של דברים אנשים אומרים".
אז לעת עתה, אין לנו עסק עם בוט יודע כל. תשובות שסיפקה ה-AI נאסרו לאחרונה מפלטפורמת משוב הקידוד StackOverflow מכיוון שסביר מאוד שהן לא נכונות. הצ'טבוט מוכש בקלות על ידי חידות (אם כי ניסיונותיו לענות מצחיקים ביותר). בסך הכל, המערכת נוחה לחלוטין להמציא דברים, מה שכמובן לא הגיוני בבדיקה אנושית. מגבלות אלו עשויות לנחם אנשים המודאגים מכך שה-AI יכול לקחת את עבודתם, או בסופו של דבר להוות איום בטיחותי על בני אדם.
אבל בינה מלאכותית משתפרת יותר ויותר, ואפילו הגרסה הנוכחית הזו של GPT כבר יכולה לעשות טוב מאוד במשימות מסוימות. שקול את המשימה של מוליק. למרות שהמערכת בהחלט לא הייתה מספיק טובה כדי לזכות באות, היא עדיין הצליחה די טוב. משתמש אחד בטוויטר אמר שבבחינת SAT מדומה, צ'אט-GPT זכה בסביבות 52 האחוזון של הנבחנים. קריס ג'ורדן, פרופסור למדעי המחשב ב-UNC, אמר ל-Recode שכאשר הקצה ל-GPT את מבחן הגמר שלו, הצ'אטבוט קיבל ציון מושלם, הרבה יותר טוב מהציון החציוני של בני האדם שלוקחים את הקורס שלו. וכן, עוד לפני ש-ChatGPT עלה לאוויר, התלמידים השתמשו בכל מיני בינה מלאכותית, כולל גרסאות קודמות של GPT, כדי להשלים את המטלות שלהם. וכנראה שהם לא מסומנים על בגידה. (Turnitin, יצרנית התוכנה נגד פלגיאט, לא הגיבה לבקשות מרובות להערה).
נכון לעכשיו, לא ברור כמה תלמידים יוזמים עשויים להתחיל להשתמש ב-GPT, או אם מורים ומרצים ימצאו דרך לתפוס אותם. ובכל זאת, צורות הבינה המלאכותית האלה כבר מאלצות אותנו להיאבק באילו דברים אנחנו רוצים שבני אדם ימשיכו לעשות, ובמה היינו מעדיפים שהטכנולוגיה תבין במקום זאת.
"המורה שלי למתמטיקה בכיתה ח' אמרה לי לא לסמוך על מחשבון מכיוון שלא יהיה לי כזה בכיס כל הזמן כשאהיה גדול", אמר ל-Recode פיליפ דוסון, מומחה שלומד בגידות בבחינות באוניברסיטת דיקין. "כולנו יודעים איך זה יצא.
סיפור זה פורסם לראשונה בעלון Recode.הירשם כאןכדי שלא תפספסו את הבא!




