اگه قسمت اول مطلبی رو که درباره هوش مصنوعی نوشتم مطالعه نکردید، لطفا از اینجا مطالعه کنید و بعد به سراغ این نوشتار بیاید.
تمرین رایتینگ با هوش مصنوعی
یکی از تمرین های خوبی که با استفاده از هوش مصنوعی می تونید انجام بدید، تمرین رایتینگه. در صورتی که سطح تون مبتدی نباشه، می تونید موضوعی رو برای رایتینگ انتخاب کنید و یکی، دو پاراگراف درباره اش بنویسید و از هوش مصنوعی بخواید ایرادهای رایتینگتون رو بهتون بگه یا بهترش کنه تا به اصطلاح native-like بشه و از feed back ای که هوش مصنوعی بهتون میده، میتونید الهام بگیرید تا بعدها رایتینگهای بهتری بنویسید.
تمرین رایتینگ با نوشتن داستانِ فیلم و سریال
برای شروع تمرین رایتینگ خوبه که سعی کنید داستان یه فیلم یا قسمتی از یه سریال رو به انگلیسی بنویسید. مثلا خودم سعی کردم بخشی از قسمت اول فصل اول سریال Lost رو به انگلیسی تعریف کنم و درباره اش رایتینگ بنویسم.
نمیدونم این سریال رو تماشا کردید یا نه. دوتا از هنرپیشه های این سریال کُرهای هستن. یه زن و شوهر که ظاهرا بلد نیستن انگلیسی صحبت کنن و شوهره خیلی متعصب و سختگیر به نظر میرسه. مثلا اجازه نمیده همسرش توی اقیانوس با مایو شنا کنه و مدام بهش تذکر میده که دکمه های لباسش رو ببنده.
خلاصه برای توصیف این صحنه این رو نوشته بودم که یعنی “آدم متعصبی به نظر می رسه و اصرار داره که هر جا میره همسرش دنبالش بیاد…”
وقتی این بخش رو برای تصحیح و اصلاح برای هوش مصنوعی ChatGPT ارسال کردم بهم این اخطار رو داد و گفت که نوشته شما خلاف قوانین و سیاستهای ماست.
تعجب کردم که چرا یه همچین چیزی گفته. ازش پرسیدم چطور؟ و پاسخ داد که بعضی مواردی که نوشتید مشکلدار هستن و این طوری ایرادها رو دستهبندی کرد:
مورد اول stereotyping بود یعنی اینکه بخوام بگم مثلا یه مردی اهل کشور کره است و متعصبه میتونه اینو القا کنه که همه کرهای ها آدمهای متعصبی هستن و مورد دوم Graphic بودن توصیف صحنه زخمی شدن یکی از مسافرای هواپیما بود که یه تیکه چوب یا فلز وارد پهلوش شده بود و خونریزی کرده بود.
وقتی ChatGPT نوشته ام رو اصلاح کرد اینو تحویلم داد. مثلا اصلا به ملیت اون هنرپیشه کره ای اشاره ای نکرد و فقط گفت که به native language صحبت می کنه. نگفت Korean صحبت میکرد و کلمه prejudiced رو که معنای “متعصب” میداد از نوشتهام حذف کرد.
بخش بعدیای که ازش ایراد گرفت صحنهای بود که توصیف کردم. صحنه ای که بخشی از تکههای هواپیمای سقوط کرده وارد بدن یکی از مسافرین شده بود و به نظرش زیادی graphic بود. یعنی با جزئیات تعریف شده بود.
یعنی من نوشته بودم که یه چیزی وارد بدنش شد و خونریزی کرد و سانسور هوش مصنوعی این بود که توسط بقایای هواپیمای سقوط کرده دچار زخم و آسیب شد. به نظرم سانسور عجیبی بود. ضمن اینکه چیزی که من از هوش مصنوعی میخوام صرفا برای خودم نمایش داده میشه و هیچ community ای در کار نیست که بخواد مخاطب نوشتههام باشه که بخواد ایراد داشته باشد.
شما چه خاطره ای از استفاده از هوش مصنوعی برای تقویت زبان دارید؟ توی بخش نظرات برامون بنویسید.