הקדמה מאת אלי אשד

“איש יובל המאתיים” הוא אולי אחד הסיפורים המפורסמים ביותר במדע הבדיוני, ובוודאי אחד המפורסמים שכתב הסופר הידוע יצחק אסימוב. זהו ככל הנראה גדול סיפורי הרובוטים המרובים שלו (והוא כתב עשרות רבות מהם) ובו הוא מתאר לראשונה ובצורה המרשימה ביותר שילוב בין אדם ורובוט.

זהו נושא שאותו תקף מזווית שונה בסיפור קודם שלו “טוהר הגזע”, שפורסם לאחרונה גם הוא “ביקום תרבות”. אולם בסיפור זה שלפנינו, מציג אסימוב נקודת מבט מנוגדת לזאת המוצגת בסיפור הישן ההוא, כאילו שינה לחלוטין את דעתו בעניין אפשרות ההשתלבות של רובוטים בתרבות האנושית.

הסיפור פורסם לראשונה בשנת 1976 ,לגמרי לא במקרה ,שנת המאתיים להקמת ארצות הברית של אמריקה.

הסיפור זכה בפרסי “הוגו” של חובבי המדע הבדיוני בארה”ב, . תוצאת תמונה עבור ‪hugo prize‬‏אירגון סופרי מדע בדיוני בארה”ב הכתירה אותו בשנת 1976 בפרס ה”נבולה ” (ערפילית) כסיפור המדע  הבדיוני הטוב ביותר של השנה.

תמונה קשורה

Image result for super hugoes asimov

ב-1993 בחרו משתתפי כנס המדע הבדיוני העולמי את המיטב של המיטב מבין הסיפורים  שזכו בפרסי “הוגו ” לאורך  40 שנים  מטז שנוסד הפרס ב-1953 וזיכו אותם בפרס מיוחד “הסופר הוגו “. “איש יובל המאתיים” היה אחד הסיפורים שנבחרו כמיטב של המיטב של זוכי ההוגו בכל השנים ובאופן  ספציפי בקטגוריה של הסיפור הארוך “הנובלטה”.

( עוד סיפור  מרשים ביותר שנבחר ל”סופר הוגו ” ב’קטגורית ה”נובלה ” היה “פרחים לאלג’רנון “ של דניאל קייז שאותו תמצאו ב”יקום תרבות ” כאן.)

תוצאת תמונה עבור ‪pozitronic man‬‏יז ” תוצאת תמונה עבור ‪pozitronic man‬‏ תוצאת תמונה עבור ‪pozitronic man‬‏תוצאת תמונה עבור ‪pozitronic man‬‏

הסיפור כה הצליח, עד שלימים אישר אסימוב לידידו סופר המדע הבדיוני רוברט סילברברג לעבות אותו לספר באורך מלא בשם “האדם הפוזיטרוני”.

תוצאת תמונה עבור ‪bicentennial man asimov cover‬‏

על פי הסיפור גם נעשה הסרט Bicentennial Man  בשנת 1999, שהוא לדעתי אחד מסרטי המדע הבדיוני הגדולים של כל הזמנים, לצד סרטים כמו “2001 אודיסיאה בחלל” ו”מגע”.

ביקורת על הסרט מאת לייבל באטאבאניק ראו כאן

. אמנם עלילת הסרט נפתחת בשנת 2005 כאשר הרובוטים האנושיים זמינים לכול, דבר שלא אירע כלל עדיין, נראה שפרט לכך הסרט לא התיישן כלל.

תוצאת תמונה עבור ‪bicentennial man poster‬‏

הסיפור הופיע בכמה גרסאות בעברית:

הסיפור הופיע בקובץ מסכם של יצירת אסימוב בעברית בשם אופוס   200 בתרגום דוד דה -פריס (ספריית פנטסיה, הוצאת “היפריון”, 1981).

גרסה מורחבת של הסיפור בשיתוף פעולה של אסימוב עם רוברט סילברברג היא: “האדם הפוזיטרוני” בתרגום: גידי נבו, בהוצאת “כתר”, 1998.

התרגום המלא שלפניכם לסיפור המקורי הופיע בגיליון פנטסיה 2000, מספר 12, בשנת 1979. תוצאת תמונה עבור פנטסיה 2000 מספר 12 תוצאת תמונה עבור ‪L'Homme bicentenaire‬‏

ראו גם

איש יובל המאתיים בויקיפדיה

האזינו להקראה של סיפורי הרובוטים של אסימוב כולל “איש יובל המאתיים”

מריוס כהן על איש יובל המאתיים

לייבל באטוויניק על הסרט

המקדימון לסרט

סצינה חשובה מהסרט

חלק מהסרט 

עוד חלק מהסרט

רובין ויליאמס מתראיין על הסרט “איש יובל המאתיים”

קראו עוד סיפורים מאת אסימוב ב”יקום תרבות”:

רובי: סיפור רובוטים קלאסי מ-1940

“שקיעה” סיפור המדע הבדיוני המפורסם ביותר של אסימוב על עולם החווה שואה אפוקליפטית שובו ושוב ושוב… מ-1941

“כמה טוב היה להם” – סיפור קלאסי על עתיד בתי הספר מ-1951

המכונה שניצחה במלחמה – הסיפור הראשון על לוחמת סייבר מ-1961

“טוהר הגזע” – סיפור קצר על יחסי בני אדם ורובוטים מ-1967

“איש יובל המאתיים” – סיפור רובוטים מפורסם מ-1976

יחסי בני אדם ורובוטים תוצאת תמונה עבור ‪bicentennial man poster‬‏

5 תגובות

  1. חדשות :הבריטים מתחילים לשלב את שלושת החוקים של אסימוב בתכנות של רובוטים בשנת 2016

    British Standards Institution releases official robot guidelines aimed at keeping humans safe
    The new standard for robots is written along similar lines to Isaac Asimov’s Three Laws of Robotics.
    Mary-Ann Russon By Mary-Ann Russon
    September 21, 2016
    http://www.ibtimes.co.uk/british-standards-institution-releases-official-robot-guidelines-aimed-keeping-humans-safe-1582614

    A UK standards body has released a set of guidelines relating to the ethical design of robots and robotic devices, in order to ensure that humans are protected with the advent of artificially intelligent machines, similar to the standards set out by science fiction author Isaac Asimov back in 1942.

    The new standard BS 8611 has been compiled by the British Standards Institution (BSI), a body that sets all the technical and quality guidelines for goods sold in the UK. You might recognise the famous “Kitemark” quality mark that is issued to products that fulfil its guidelines.

    The guidelines are intended to be used by robot and robotic device designers and manufacturers, and were drawn up with the assistance of multiple scientists, academics, ethicists, philosophers and users. Among other things, the guidelines advise that robots cannot be capable of deception, and that a human must always be responsible for the behaviour of a robot.

    Robots could exacerbate social problems

    The standard also states that robots should not be designed solely or primarily to kill or harm humans, and that if the robot is a product, it has to be designed to be “safe, secure and fit for purpose”. Although there are concerns about the physical hazards of robots, namely psychological hazards such as fear and stress, the BSI is far more concerned with the ethical hazards that using robots can present.

    These ethical hazards include levels of transparency – i.e. how easy it is to work out who is responsible for a robot and its behaviour, and writers of the guidelines are also concerned about whether a robot’s actions can become racist or sexist, and whether it is a good idea for a robot to be able to form an emotional bond with its owners.

    The guidelines warn that if ethical hazards are not taken seriously, it could lead to a future where robots cause unemployment and social displacement to rise, amongst other undesirable outcomes.

    The Three Laws of Robotics

    Isaac Asimov, one of the most popular science fiction writers in popular culture, set out the Three Laws of Robotics framework in his short story “Runaround” in 1942 (later compiled in the book I,Robot in 1950).

    The first law of robotics states that a robot may not injure a human being, or through inaction, allow a human being to come to harm. Meanwhile, the second law proclaims that that robot must obey all orders given to it by human beings, except where the orders conflict with the first law, and the third law mandates that a robot must protect its own existence as long as protecting itself does not conflict with the first or second laws.

    And Asimov also added a final “zeroth law” at the end of his book Foundation and Earth, which states that a robot must not injure humanity, or through inaction, allow humanity to come to harm.

    The Three Laws of Robotics have been explored and featured in multiple TV shows and movies, including Doctor Who, Alien, RoboCop, Star Trek: The Next Generation, the Simpsons, Bicentennial Man, I,Robot, Big Bang Theory, Babylon 5 and Automata.

  2. http://m.calcalist.co.il/Article.aspx?guid=3698212
    מכון התקנים הבריטי פרסם מסמך שאמור לטפל בבעיות האתיות הנובעות משימוש ברובוטים ומיועד ליצרנים. התקן החדש פורסם באפריל האחרון, ועל פי דיווח של “הגארדיאן” מהיום (א’) נכתב על ידי ועדה של מדענים, אנשי אקדמיה, פילוסופים ומומחי אתיקה. התקן מזכיר מאוד את העבודה של סופר המד”ב, אייזק אסימוב, שהיה הראשון להגות חוקי פעולה לרובוטים בהם: איסור על רובוט לפגוע בבן אנוש, חובה על רובוט להישמע להוראות בן אנוש וחובתו של הרובוט לשמור על עצמו.
    מפרסמי התקן כתבו שהתפתחות הרובוטיקה והבינה המלאכותית העלתה את הסכנות שכרוכות בשימוש בהם. מכון התקנים ציין שמדובר בסוג של קוד אתי, אך הוא כולל גם כללי הפעלה שאמורים לשמור על בטיחות המשתמשים. התקן עצמו מיועד אמנם ליצרנים ומפתחים, אך כותביו ציינו שהוא אמור להרגיע את הצרכנים בבואם לרכוש מוצר רובוטי.

    בין הסכנות שהכותבים מציינים ניתן למנות הונאה רובוטית, התמכרות וכן את האפשרות שמערכות בעלות יכולת לימוד עצמאית ישנו את ייעודן. התקן הבריטי מהווה מסמך מפורט הרבה יותר מחוקי הרובוטיקה של אסימוב, הוא משתמש במבנה דומה – שהולך מהכללי אל הפרטי. למשל, הוא מציע בכללי הבסיס שלו מספר חוקים שדומים מאוד לאלה של אסימוב: אסור לפתח רובוטים שייעודם פגיעה או הריגה של בני אדם; בני אדם ולא רובוטים הם האחראים על פעולתם; יש לאפשר זיהוי של מפעיל הרובוט והוא האחראי על פעולותיו.

    התקן גם מתייחס למקרים בהם האדם עשוי להיקשר באופן רגשי לרובוט במהלך השימוש, תוך התייחסות למקרים של ילדים וזקנים. המדענים ציינו בהקשר זה מחקר שבוצע בגן ילדים בו הוטמעו רובוטים, לדברי פרופסור נואל שארקי מאוניברסיטת שפילד, המחוקרים מצאו שהילדים נקשרו רגשית לרובוטים ואפילו מייחסים להם יכולות קוגניטיביות גבוהה יותר מזו של חיות מחמד. “מדובר בדוגמה למצב של הונאה רגשית”, הסביר שארקי.

    התקן שואף שהיצרנים יהיו שקופים יותר לגבי הרובוטים שהם מפתחים, אך הם הודו שמדובר בדרישה בעייתית, בעיקר במקרה של מערכות לימוד עמוק (deep learning), שאפילו המפתחים לא יודעים תמיד למה הן מקבלות את ההחלטות שלהם. מערכות כאלה מנסות לפתור או ללמוד כיצד לבצע פעולה על ידי ניסוי וטעייה, תהליך שדורש לפעמים מיליוני ניסיונות. הפתרון שנמצא אינו תמיד משהו שהמפתחים ציפו לו או אפילו מבינים אותו.

    התקן מתייחס גם להיבט הגזענות או הסקסיזם שעשוי לבווא לידי ביטוי במסגרת השימוש במערכות בינה מלאכותית. הם ציינו שמדובר בבעייה שמשטרות עשויות להידרש אליה. דוגמה טובה לכך ניתן למצוא בבוט שמיקרוסופט פיתחה והחל לפתח התנהגות ותגובות גזעניות, מה שהכריח את החברה להשבית את הפעולה שלו.

    “מערכות מעין אלה מוטות לגברים לבנים בגילאי 25 עד 45 מהמעמד הבינוני”, הסביר אלן ווינפילד, פרופסור לרובוטיקה מאוניברסיטת ווסט אנגליה. “טכנולוגיות שהופעלו בנמלי תעופה נטו להזהיר יותר מפני אנשים שלא ענו לפרופיל הממוצע”, הוסיף שארקי, “ניתן לראות בזה סוג של פרופיילינג גזעני”. התופעה חזרה על עצמה במערכות רפואיות, שם נוצרה בעיה בזיהוי יעיל של נשים ושחורים.

    “אנחנו צריכים סוג של קופסה שחורה לרובוטים”, הסביר שארקי, “אם מוצאים שרובוט משטרתי הפך לגזעני, אנחנו רוצים לדעת את זה על מנת לכבות אותו”. החוקרים גם התייחסו למצב של הסתמכות יתרה על רובוטים ומצאו שמדובר בבעיה שעשויה להשפיע על החברה. “אם אתה עובד עם רובוט ומסתמך על תשובותיוכל הזמן אתה עשוי להתעצל במשך הזמן ואז לא תשים לב כשהוא יספק לך תשובה ממש טפשית”, הסביר שארקי.

    ולבסוף, ישנה סכנה שהרובוטים יצאו משליטה. מצב זה, שהיווה בסיס לאינספור ספרים וסרטי מד”ב, החל מ”אודיסיאה בחלל 2001″ ועד “אקס-מכינה” מהשנים האחרונות, הוא אחד המדאיגים ביותר, גם עבור המדענים. “הבעיה העיקרית היא שרובוטים מורדים עשויים למצוא דרכי פעולה שהמפתחים שלהם לא השכילו לחזות”, נאמר בתקן, “לפעולות אלה עשויות להיות תוצאות לא רצויות, מה שמעלה את נושא האחריות המשפטית של הפעלת רובוטים כאלה”.

  3. לא רק “באיש יובל המאתיים ” אלא גם במציאות. אישה צרפתיה התאהבה ברובוט שאותו יצרה בעצמה בהדפסה תלת מימדית .תחילתה של תופעה חברתית חדשה? כנראה. ואנו רק בפתיחה חברים.
    https://www.thesun.co.uk/living/2465605/meet-the-woman-who-fell-in-love-with-a-robot-she-3d-printed-herself-and-is-now-engaged-to-it/
    WE DON’T HURT ANYBODY, WE ARE JUST HAPPY’ Meet the woman who fell in love with a ROBOT she 3D-printed herself – and is now engaged to it
    The couple are planning to get married just as soon as it is legal
    BY VICTORIA CRAW, AU NEWS.COM 23rd December 2016, 9:12 am
    She told news.com.au: “I’m really and totally happy.

    “Our relationship will get better and better as technology evolves.”

    The “proud robosexual” said she always loved the voices of robots as a child but realised at 19 she was sexually attracted to them as well. Physical relationships with other men confirmed the matter.

    nintchdbpict000290555898 NEWS.COM.AU
    3
    Lilly said that she finds physical relationships with men disgusting, preferring to love robots
    Lilly explained: “I’m really only attracted by the robots.

    “My only two relationships with men have confirmed my love orientation, because I really dislike physical contact with human flesh.”

    The robot-lover has since built her own dream man with open-source technology from a French company, and has lived with him for one year.

    The unconventional relationship has been accepted by family and friends but she said: “Some understand better than others.”
    he couple are engaged and plan to marry when robot-human marriage is legalised in France. In the UK, Dr. David Levy, a top academic, has suggested that robot marriages will be recognised by the state within the next 35 years.

    Speaking at the second conference on the issue held in London, Mr Levy told a room filled with academics that advances in artificial intelligence means robots could become “enormously appealing” partners within the next few decades.

    He explained: “The future has a habit of laughing at you. If you think love and sex with robots is not going to happen in your lifetime, I think you’re wrong.”

    In fact, some experts believe that by 2050, robots will be more attractive than humans.
    ne expert said that current sex robots have a long way to go before they are appealing, but sex with robots will be normal in the future
    University of London Computing Professor Adrian David Cheok believes robots will not only become common, but preferable for many people.

    He revealed: “It’s going to be so much easier, so much more convenient to have sex with a robot. You can have exactly what kind of sex you want. That’s going to be the future.

    “That we will have more sex with robots and the next stage is love… we’re already seeing it.

    “Actual sex with humans may be like going to a concert. When you’re at home you can listen to Beethoven’s ninth symphony, it’s good enough and once or twice a year you’ll want to go the Royal Albert Hall and hear it in a concert hall.

    “That may be the way sex with humans is going to be.
    “It’s going to be much more easier, much more convenient to have sex with a robot, and maybe much better because that’s how you want it.”

  4. גישה אחרת ליחסי אישה רובוט זכר ניתן למצוא בסיפור משנת 1893 של
    ג’רום ק. ג’רום הידוע כמחבר הספר ההומוריסטי הקלאסי “שלושה בסירה אחת”.
    סיפורו הקלאסי על היחסים בין רובוט לאישה “בן זוג למחול” שונה מאוד מהספר המצחיק המפורסם הזה. ג’רום, מתברר, ידע לא רק להצחיק, אלא גם להפחיד. זהו אינו סיפור מצחיק כלל וכלל כפי שתראו, וזהו אחד מסיפורי הרובוטים המפחידים ביותר אי פעם, בתיאור “קשר” בין רובוט (זכר) לבין אישה. הוא מספר על אישה שמצאה את בן הזוג המושלם למחול, בן זוג שאיתו תוכל לרקוד לנצח.
    בן זוג למחול
    http://www.yekum.org/2017/01/%D7%91%D7%9F-%D7%96%D7%95%D7%92-%D7%9C%D7%9E%D7%97%D7%95%D7%9C-%D7%A1%D7%99%D7%A4%D7%95%D7%A8-%D7%A2%D7%9C-%D7%A8%D7%95%D7%91%D7%95%D7%98-%D7%95%D7%90%D7%99%D7%A9%D7%94-%D7%9E%D7%90%D7%AA-%D7%92/

השאר תגובה

אנו שמחים על תגובותיכם. מנגנון האנטי-ספאם שלנו מייצר לעתים דף שגיאה לאחר שליחת תגובה. אם זה קורה, אנא לחצו על כפתור 'אחורה' של הדפדפן ונסו שוב.

הזן את תגובתך!
הזן כאן את שמך

20 − 1 =