تشخیص اخبار جعلی با کمک هوش مصنوعی
تاریخ انتشار: ۹ آذر ۱۴۰۱ | کد خبر: ۳۶۵۰۲۲۰۰
اخبار جعلی میتواند باعث اختلال پایدار در ساختار جامعه شود. اخیرا دو اقتصاددان، نرم افزاری به نام "Factinsect" توسعه دادهاند که این پتانسیل را دارد که با کاهش روند صحتسنجی به چند ثانیه، این خطر را از بین ببرد.
به گزارش ایران اکونومیست و به نقل از آی او، در سال ۲۰۱۵/۲۰۱۶، حدود دو میلیون نفر به اتحادیه اروپا گریختند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
"رومانا دورفر"(Romana Dorfer) و "سیلجا کمپینگر"(Silja Kempinger) به طور مستقل تصمیم گرفتند با خطر فزاینده این اطلاعات نادرست مقابله کنند. سیلجا که یک اقتصاددان اجتماعی است، شروع به برگزاری دوره آموزشی سواد رسانهای کرد و رومانا که توسعه دهنده نرم افزار و متخصص هوش مصنوعی است، تحقیقاتی را روی توسعه یک نرم افزار مناسب آغاز کرد. هنگامی که نمونه اولیه این نرم افزار آماده شد، او با یکی از بنیانگذاران استارت آپ سیلجا ملاقات کرد. از آن زمان، استارت آپ آنها جوایز متعددی را کسب کرده است.
سایت آی او در این قسمت از مجموعه استارت آپ روز، از سیلجا در مورد Factinsect و چالشهای راه اندازی یک شرکت صحبت کرده است.
میتوانید توضیح دهید که برنامه کاربردی نرم افزار شما در برابر اخبار جعلی چگونه عمل میکند؟
Factinsect محتوای متنی مشکوک را با رسانههای با کیفیت انتخاب شده مقایسه میکند. حتی اگر متنها متفاوت باشند، هوش مصنوعی تشخیص میدهد که متون همدیگر را تایید میکنند یا در تضاد هستند. کاربران در عرض چند ثانیه نشانه واضحی از اعتبار اطلاعات دریافت میکنند. این نرم افزار را میتوان از طریق مرورگر Factinsect یا مستقیما در صفحه اصلی سایت www.factinsect.com استفاده کرد. فناوری Factinsect میتواند نه تنها برای بررسی واقعیت بلکه به عنوان یک موتور جستجوی پیشرفته در زمینه مدیریت دانش مورد استفاده قرار گیرد.
شما چه مشکلی را حل میکنید و چرا کارتان مهم است؟
بررسی دستی حقایق مانند سازمانهای Correctiv یا Mimikama، زمان بر و مستعد خطا است. حتی شرکتهای بزرگی مانند فیسبوک/متا همچنان از نیروی انسانی برای شناسایی اخبار جعلی استفاده میکنند. ما این مشکل را با بررسی حقایق خودکار خود با ارائه نتیجه در عرض چند ثانیه با نشانه واضحی از اعتبار اطلاعات حل میکنیم. به این ترتیب، کاربران میدانند که آیا باید تحقیقات بیشتری برای یک موضوع خاص انجام دهند یا خیر. این سامانه کاملا شفاف است و نشان میدهد که خبر مورد نظر با کدام رسانه با کیفیت مقایسه میشود و کدام بخش از متن تأیید یا رد شده است. شرکتهای علاقهمند مانند شبکههای اجتماعی یا رسانهها میتوانند Factinsect را مستقیما از طریق واسط برنامهنویسی نرمافزار کاربردی یا API در سیستم های خود داشته باشند. چشمانداز بلندمدت ما این است که به جامعه یک پایگاه اطلاع رسانی واقعی بدهیم و بدین ترتیب به گسترش آیندهای صلح آمیز و امن کمک کنیم.
چه دستاوردهایی باعث افتخار شما شده است؟
ما جوایز زیادی مانند مقام اول در مجله روز بنیانگذاران مجله وین در سال ۲۰۲۱ را دریافت کردهایم. در همان سال، ما در فینال رقابت استارتآپ زنان اروپا بودیم و برنده مینی شتاب دهنده استارتآپ در Talent Garden Austria شدیم.
آیا تامین بودجه برای شما سخت بود؟
ما کمکهای مالی مختلفی برای توسعه بیشتر نرم افزار و هوش مصنوعی دریافت کردهایم. در حال حاضر، ما به سرمایهگذاران فرصت سرمایهگذاری در Factinsect را میدهیم، داشتن یک سرمایهگذار با تجربه در صنعت رسانه ایدهآل خواهد بود.
دوست دارید پنج سال دیگر نرم افزار Factinsect چه پیشرفتی کرده باشد؟
مهمترین هدف ما مهار تأثیرات منفی اخبار جعلی و بازگرداندن مبنای مشترک حقایق برای همزیستی مسالمت آمیز است. اما تنها زمانی میتوانیم به این هدف دست یابیم که از نظر تجاری موفق باشیم. در حال حاضر Factinsect به زبان آلمانی برای رسانههای اتریشی در دسترس است. نسخه انگلیسی زبان با رسانهای از ایالات متحده در مرحله توسعه است. مقیاسپذیری این سیستم، افزودن رسانهها و زبانهای بیشتری را در آینده آسان میکند.
چه چیزی Factinsect را بهتر یا متفاوت از نرم افزارهای موجود میکند؟
هوش مصنوعی ما به طور قابل توجهی نسبت به سایر رویکردهای راه حل برای برنامههای مشابه برتری دارد. محتوای متن را تشخیص میدهد و آنها را با هم مقایسه میکند، حتی اگر متن متفاوت باشد. واضحترین مزیت آن نسبت به بررسیهای دستی، فاکتور زمان است: Factinsect در عرض چند ثانیه نتیجه را ارائه میدهد. ما فقط به همکاری با شرکای تجاری که به استقلال حقیقتسنجی ما احترام میگذارند اهمیت زیادی میدهیم. نرم افزار ما همچنین با دستورالعملهای اخلاقی اتحادیه اروپا برای هوش مصنوعی قابل اعتماد مطابقت دارد.
منبع: خبرگزاری ایسنا برچسب ها: هوش مصنوعی ، اخبار جعلی
منبع: ایران اکونومیست
کلیدواژه: هوش مصنوعی اخبار جعلی هوش مصنوعی اخبار جعلی چند ثانیه نرم افزار استارت آپ رسانه ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت iraneconomist.com دریافت کردهاست، لذا منبع این خبر، وبسایت «ایران اکونومیست» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۵۰۲۲۰۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
اعلام جرم دادستانی تهران علیه برخی از فعالان رسانهای بهدلیل انتشار مطالبی درباره پرونده نیکا شاکرمی
به گزارش خبرآنلاین، برخی از فعالان رسانهای که با استناد به گزارش جعلی و پر از اشتباه بیبیسی، با همراهی گروههای ضد انقلاب اقدام به انتشار مطالب کذب در رابطه با پرونده نیکا شاکرمی کرده بودند به دادستانی تهران احضار شدند.
میزان در خبری نوشت: به واسطه انتشار مطالب کذب، توهینآمیز و تبلیغ علیه نظام در فضای مجازی پس از انتشار گزارش جعلی سایت انگلیسی BBC در رابطه با پرونده نیکا شاکرمی، دادستانی تهران علیه تعدادی از خبرنگارها و فعالان رسانهای اعلام جرم کرد.
دادستانی تهران در راستای وظیفه قانونی عدلیه برای مقابله با برهم زنندگان امنیت روانی جامعه، ضمن اعلام جرم، برای این افراد پرونده قضایی تشکیل داد و جهت ارائه توضیحات به دادسرای تهران احضار شدند.
گفتنی است روز گذشته در حالی سایت bbc جهانی گزارشی جعلی و نادرست و پر اشتباه در رابطه با پرونده نیکا شاکرمی منتشر کرد که پیشتر به این پرونده رسیدگی دقیق قضایی صورت گرفته و نتایج بررسیها نیز رسما در رسانهها اعلام شد.
۴۷۲۳۶
برای دسترسی سریع به تازهترین اخبار و تحلیل رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید. کد خبر 1901727