ماه گذشته نیز Check Point مدارکی ارائه کرد که چگونه هوش مصنوعی میتواند برای توسعه بدافزار و نوشتن ایمیل فیشینگ مورد استفاده قرار بگیرد. براساس آن گزارش، در ماه دسامبر ۲۰۲۲ (آذر ۱۴۰۱) و ژانویه ۲۰۲۳ (دی ۱۴۰۱) توسعه بدافزار و نوشتن ایمیل فیشینگ توسط ChatGPT و ازطریق رابط کاربری تحتوب آن بهراحتی انجام میشد.
نمایندگان OpenAI، شرکت مستقر در سانفرانسیسکو که ChatGPT را توسعه داده، هنوز به پرسش دربارهی سوءاستفاده از این هوش مصنوعی و اینکه آیا این شرکت از نتایج تحقیقات بهدستآمده اطلاعی دارد یا برنامهای برای ویرایش رابط API تدوین کرده، پاسخی نداده است.
توسعه و تولید بدافزار و نوشتن ایمیل فیشینگ میتواند در نوع خود تمثالی واقعی از باز کردن جعبه پاندورا باشد که طبق افسانههای یونانی منشاء تمام بدبختی بشر تا به امروز است و میتواند ما را از هر سو در فضای اینترنت در یک اتمسفر آخرالزمانی قرار دهد.
از دیگر استفادههای ناایمن و غیراخلاقی هوش مصنوعی میتوان برای تکالیف مدرسه یا تولید ضداطلاعات و اطلاعات غلط نام برد. البته، همان توانایی برای تولید محتوای مخرب و غیراخلاقی را میتوان برای توسعه راههای مقابله با آن نیز بهکار گرفت؛ اما مشخص نیست که آیا استفادهی کاربردی آن بر سوءاستفاده مسلط شود یا برعکس.
دیدگاه شما درباره احتمال استفاده از هوش مصنوعی برای تولید بدافزار چیست؟