تقاطع اخلاق و فناوری
530 subscribers
371 photos
50 videos
13 files
167 links
مجله تلگرامی کارگروه اخلاق و فناوری اندیشکده مهاجر، دانشگاه صنعتی شریف
ارتباط با ادمین:

@behzadface
@Abootalebsaf
@Mahdi7khalili
Download Telegram
🎬 معرفی ویدیو:☝️☝️☝️

🗂 #هوش_مصنوعی

ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️

🗂#مهندسی_ژنتیک

عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته می‌شود

منبع: ScienceAlert ( ترجمه وبسایت زومیت)

📌 کریسپر (CRISPR-Cas9) به‌عنوان یکی از مهم‌ترین اختراعات پزشکی مدرن شناخته می‌شود؛ به‌گونه‌ای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور می‌شد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینه‌ی علم ویرایش ژن‌ها ایجاد کرد؛ اما اکنون دانشمندان دریافته‌اند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم می‌شود. با توجه به این‌که هم‌اکنون آزمایش‌های بالینی در مورد کریسپر روی انسان‌ها در جریان است، یافته‌ی اخیر باعث ایجاد نگرانی‌های جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد می‌گوید:

ما معتقدیم که ضرورت دارد جامعه‌ی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهش‌های غیر هدفمند می‌شود. این جهش‌ها شامل جهش‌های تک نوکلئوتیدی و جهش‌ در مناطق غیر کد در ژنوم می‌شود.

تسانگ به همراه تیم تحقیقاتی‌اش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آن‌ها به دنبال کشف جهش‌های ژنی ناخواسته در بخش‌هایی از ارگانیسم بودند که به‌کلی با ناحیه‌ی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسم‌ها، هیچ اثری از جهش‌های ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفاده‌شده در این مطالعات برگردد. در مطالعات پیشین از الگوریتم‌های رایانه‌ای برای اسکن بخش‌هایی از ارگانیسم استفاده شده بود که مرتبط با منطقه‌ی هدف بودند و احتمال بروز جهش در آن‌ها، بسته به نوع ویرایش ژنی انجام‌شده، بیشتر بود.

الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد این‌گونه توضیح می‌دهد:

زمانی که شما از تکنیک کریسپر در سلول‌ها یا بافت‌ها در ابعاد محدود استفاده می‌کنید، این الگوریتم‌های پیش‌بینی کننده کار خود را به‌خوبی انجام می‌دهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهش‌های ناخواسته در نواحی غیر مرتبط انجام نشده بود.

اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبت‌ها در مورد توسعه‌ی یک تکنولوژی شگفت‌انگیز در زمینه‌ی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر به‌عنوان انقلابی در پزشکی مدرن یاد می‌شود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دی‌ان‌ای انسان‌ها، حیوانات و گیاهان اعمال کنند.

در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن می‌توانند ژن‌های مشخصی از یک ژنوم را بردارند و آن را با یک دی‌ان‌ای دلخواه جایگزین کنند. به این ترتیب برای مثال می‌توان ژن‌های معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینه‌ها مختلف بهره می‌برند. در سال‌های اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهش‌های ژنتیکی عامل کوری، درمان بیماری‌های ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.

با این‌که در برخی از مطالعات گذشته نشانه‌هایی از جهش‌های غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافته‌ها نتوانسته بودند باعث توقف آزمایش‌های انسانی کریسپر شوند.اولین مطالعه‌ی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نمانده‌اند و هر یک در حال پیشبرد مطالعات خود هستند.

در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شده‌اند. کریسپر تبدیل به نسخه‌ی بیولوژیک رقابت فضایی بین قدرت‌های جهانی شده است.کارل جوئن، متخصص ایمنی‌شناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر می‌کنم این موضوع در واقع به‌نوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
اما اکنون محققان دریافته‌اند که استفاده از کریسپر بسیار گسترده‌تر از آن چیزی که قبلا گمانه‌زنی می‌شد و باعث بروز جهش‌های ژنتیکی ناخواسته در حیوانات می‌شود. تیم تحقیقاتی تسانگ برای کشف این موضوع تمام ژنوم دو موش آزمایشگاهی را تعیین توالی کردند. این دو موش قبلا در معرض ویرایش ژنتیکی با کریسپر قرار گرفته بودند. آن‌ها به دنبال کوچک‌ترین جهش ناشی از استفاده از این تکنولوژی بودند؛ حتی جهش در یک تک نوکلئوتید، یا همان بلوک اصلی سازنده‌ی دی‌ان‌ای و آر‌ان‌ای.

تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژن‌های عامل کوری در موش‌ها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موش‌ها اتفاق افتاده است. تعداد جهش‌های بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهش‌های ژنتیکی توسط الگوریتم‌های رایانه‌ای که به‌طور گسترده توسط محققان استفاده می‌شود، پیش‌بینی نشده بود.

البته یافته‌ی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژن‌ها باعث نخواهد شد استفاده از این تکنولوژی به‌طور کلی کنار گذاشته شود. هم‌اکنون به مطالعات بیشتری برای اثبات این یافته‌ها نیاز است. نتایج تحقیق اخیر باید در نمونه‌های بیشتر و انسان‌ها نیز تکرار شود.اما باید اقرار کرد که به نظر می‌رسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانی‌مدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آن‌ها نشده بود. اما اکنون آن‌ها باید هشدارهای مربوط به بروز جهش‌های ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
📝یادداشت

عنوان: مسابقه ربط

نویسنده: اندرو لوئیس

مترجم: ابوطالب صفدری

بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشه‌های او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعت‌گرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانه‌واری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئله‌ای ساده‌تر که میلیون‌ها انسان هر روز به آن فکر می‌کردند: اینکه چه برنامه‌ای را در تلویزیون تماشا کنند.

متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
🎬 معرفی ویدیو ☝️☝️☝️

🗂#اخلاق_زیستی #سقط_جنین

دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان می‌پردازد. با ظهور فناوری‌های تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف می‌شوند را تغییر داده است. از سوی دیگر این فناوری‌های به شدت مستعد تجاری شدن‌ هستند و این فرصت را برای افراد تاجر مسلک فراهم کرده‌اند که به خرید فروش رویان‌های فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحث‌ها و گفتگو‌های دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
📗معرفی کتاب ☝️☝️☝️


🗂#نانو_فناوری #تبعات_اجتماعی #تبعات_اخلاقی

📌 پیشرفت‌ها در علوم و فناوری‌های نانو وعده تاثیرات شگرفی را بر سلامت، ثروت و صلح جهانی در دهه‌های آینده می‌دهد. در میان این پیشرفت‌ها می‌توان به افزایش خیره کننده بهره وری کامپیوترها، بازیابی ارگان‌های انسانی با استفاده از بافت‌های مهندسی شده، موادی که به صورت مستقیم اتم به اتم و مولکول به مولکول طراحی شده‌اند، و ظهور پدیده‌های کاملا نوین در شیمی و فیزیک اشاره کرد. این کتاب شامل مجموعه ای از مقالات است که توسط دانشمندان پیشرو، مهندسان و اساتید علوم اجتماعی به رشته تحریر درآمده و در آن به مروری بر کاربرد‌های ممکن توسعه قریب الوقوع این فناوری در بسیاری از حوزه‌های کاربردهای صنعتی، پزشکی و امنیت ملی و همچنین مسائل مرتبط اخلاقی، حقوقی، آموزشی و اقتصادی آن پرداخته می شود. این مقالات به زمینه‌های بالقوه‌ی تحقیق درباره تبعات اجتماعی نانو فناوری اشاره دارند و درکنار آن نیز برخی پیشنهادات اولیه برای این که اثرات مثبت احتمالی نانو فناوری حداکثر گردد و اثرات منفی آن به حداقل برسد ارائه می‌کنند . این کتاب البته می‌تواند به عنوان الگویی برای چگونگی مواجه با تبعات اجتماعی مثبت یا منفی دیگر فناوری‌‌های نوین لحاظ شود. این کتاب با حمایت برنامه پیشگامی نانو فناوری ایالات متحده (NNI) به چاپ رسیده است اما مسائلی که در آن به آن‌ها پرداخته شده است هم دارای مقیاس جهانی‌اند و هم به مسائل فوری و آینده نگرانه نانو فناوری را در بر می‌گیرند. پرسش اصلی محققان این کتاب این است که چگونه تاریخ و شرایط انسانی تحت تاثیر توسعه فناوری قرار می‌گیرد و چگونه افراد و نهاد ها می توانند توسعه فناوری را به نحوی هدایت کنند که در طولانی مدت به نفع انسان باشد.

📌درباره نویسندگان:

1- میخاییل روکو (Mihail C. Roco) مشاور ارشد نانوفناوری بنیاد ملی علوم (NSF) و برنامه پیشگامی نانو فناوری (NNI) در ایالات متحده است. از او مقالات و کتب فراوانی در زمینه تاثیرات اجتماعی فناوری‌‌های نوین به خصوص نانو فناوری و روش‌های سیاست گذاری برای مواجهه صحیح با آن ها به چاپ رسیده است.

2- ویلیام بین بریج (William Sims Bainbridge) جامعه شناس آمریکایی و مدیر بخش سیستم های انسان-سایبر در بیناد ملی علوم ایالات متحده است. او یکی از همکاران ارشد در انستیتو اخلاق و تکنولوژی های در حال ظهور است. بین بریج همچنین به دارای تالیفات شناخته شده‌ای در جامعه شناسی دین است.


📌مشخصات کتاب شناختی:

Title: Nanotechnology: Societal Implications: I: Maximising Benefits for Humanity; II: Individual Perspectives

Editor: Mihail C Roco , William Sims Bainbridge

Publisher: Springer 2007

ISBN: 1402054327, 9781402054327

Length: 357 pages
🗣خبر☝️☝️☝️

🗂#هوش_مصنوعی

عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد

منبع:MSPU (ترجمه از وب سایت دیجیاتو)

هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.

با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.

حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد

پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.

در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.

اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🎬 معرفی ویدیو☝️☝️☝️

🗂#سایبورگ #تازه_های_فناوری

ویدیو فوق به مصاحبه ی با نیل هاربیسون (Neil Harbisson) یکی از معدود سایبورگ های حال حاضر جهان اختصاص دارد. او که از پایه گذاران بنیاد سایبورگ است ترکیب شدن انسان ها با تکنولوژی را امری اجتناب ناپذیر می داند و معتقد است این امر منجر به افزایش توانایی ها ی انسان می گردد. از نظر هاربیسون سایبورگی شدن درنهایت برای جامعه به امری عادی تبدیل خواهد شد و به طور خاص گسترش تکنولوژی های پوشیدنی کنونی زمینه لازم را برای مرحله بعدی یعنی کاشت تکنولوژی ها در بدن انسان فراهم خواهد آورد.
🗣خبر ☝️☝️☝️

🗂#اخلاق_ربات #حریم_خصوصی

🔴 عنوان : کمپانی سازنده جاروبرقی های رباتیک،اطلاعات چیدمان منزل کاربران را می فروشد

🔴 منبع: Engadget (به نقل از دیجیاتو)


📌 آی ربات (IRobot) در سال 1990 میلادی و توسط سه تن از فارغ التحصیلان دانشگاه MIT تاسیس شد. این کمپانی محصولات و خدمات متنوعی داشته اما در سطح دنیا بیشتر به خاطر تولید جاروبرقی های رباتیک خود به نام «Roomba» مشهور است. شرکت مورد بحث در سال 2015 مدل جدیدی تحت عنوان «Roomba 980» را معرفی کرد که به سنسورها و توانایی های ارتباطی فراوانی از جمله وای فای مجهز شده و علاوه بر تمیز کردن سطح منزل، اطلاعات مربوط به محل اتاق ها، راهروها و چیدمان لوازم خانگی را نیز جمع آوری می کند. رومبا سپس از اطلاعات مذکور به عنوان مرجعی برای مسیریابی استفاده کرده و بهینه ترین مسیر را برای جارو کردن خانه انتخاب می کند.

حال آقای «کالین انگِل» مدیر عامل کمپانی، اعلام کرده قصد دارد اطلاعات مورد بحث را به شرکت هایی مانند گوگل، اپل یا آمازون بفروشد. این اطلاعات خصوصاً برای برنامه های خانه هوشمند شرکت های مذکور از اهمیت ویژه ای برخوردار بوده و امکان ارائه قابلیت های جدیدی از طریق دستیارهای صوتی هوشمند را فراهم می کند.

البته انگِل عنوان کرده که اطلاعات جمع آوری شده توسط رومباها، بدون اجازه کاربران فروخته نخواهد شد و صاحبان جاروبرقی های رباتیک مذکور می توانند به راحتی، قابلیت ارتباط با فضای ابری و اشتراک اطلاعات را خاموش کنند.

اما جالب اینجاست که امکان فروش اطلاعات کاربران توسط کمپانی، در «موافقتنامه کاربر» ذکر شده و تمامی مالکان رومبا هنگام خرید و راه اندازی دستگاه خود آن را تایید کرده اند. از همین رو نگرانی هایی در زمینه حریم خصوصی توسط مشتریان و برخی از مراجع حقوقی مطرح شده که بر اساس برخی تحلیل ها، به کاهش فروش محصولات iRobot خواهد انجامید. هرچند مدیر عامل شرکت مورد بحث در این باره نگران نیست و اعلام کرده که اکثر مشتریان مایلند در ازای اشتراک اطلاعات این چنینی، محصولات و خدمات با کیفیت تری را به دست بیاورند.

📌 به روز رسانی:

کالین آنگل مدیرعامل این شرکت به دنبال شدت گرفتن موج اعتراضات به این گفته ها، اعلام کرد که شرکت iRobot هیچگاه اطلاعات کاربرانش را نمی فروشد. یکی از سخنگویان این شرکت نیز اظهار داشت که از گفته های مدیرعامل سوء برداشت شده است.

کالین آنگل که پیشتر اعلام کرده بود شرکت مطبوعش در راستای بهبود وسایل هوشمند، اطلاعات گردآوری شده از طریق جارو ربات ها را در اختیار شرکت های دیگر می گذارد حالا مدعی شده این مساله کاملا به انتخاب کاربران بر می گردد و اجباری در این موضوع نیست.
📝یادداشت

عنوان: کنفرانس‌ها و همایش‌های علمی به‌مثابه تکنولوژی

نویسنده: مهدی خلیلی

با توجه به برگزاری همایش‌ها و کنفرانس‌های بی‌شمار در کشورمان، جا دارد به فهمِ بنیادین این پدیده همت گماشته شود. من در متن حاضر تلاش دارم، با فراهم آوردن مبنایی نظری، تمرینی برای فهم چیستی "کنفرانس" و یا "همایش" داشته باشم. این متن سه بخش خواهد داشت. بخش اول به هایدگر، بخش دوم به گادامر، و بخش سوم به برگمان اختصاص دارد. در ابتدای هر بخش نظر آن متفکر درباره‌ی فناوری شرح داده می‌شود، و سپس در پرتو آن، "کنفرانس‌ها و همایش‌های علمی" تحلیل می‌شود. تلاش آن است که درمجموع یک دیدگاه منسجم در رابطه با کنفرانس‌ها و همایش‌های علمی فراهم، و در بخش نتیجه‌گیری این متن ارائه شود.


متن کامل یادداشت در لینک زیر:👇👇👇

https://goo.gl/i5rQZS
🎬 معرفی ویدیو☝️☝️☝️

🗂#فضای_مجازی #فناری_ارتباطات_و_اطلاعات

📌 شری ترکل (Sherry Turkle) استاد مطالعات اجتماعی علم و فناوری در دانشگاه MIT است. او دارای مدرک دکترای جامعه شناسی و روانشناسی شخصیت از دانشگاه هاروارد است. در حال حاضر تمرکز تحقیقات او بر روی تحلیل روانی نسبت انسان-فناوری است.از او چندین کتاب در مورد روانشناسی رابطه انسان و فناوری به خصوص در مورد تکنولوژی های جدید ارتباطی به چاپ رسیده است.

📌 در این سخنرانی ترکل به نوع جدیدی از تنهایی در عصر ارتباطات می پردازد. تنهایی که در آن با وجود این که در جمع هستیم اما همچنان قدرت گفتگو و ارتباط واقعی با دیگران را نداریم. ما دوست داریم از وسایل نوین ارتباطی استفاده کنیم زیرا آنها به ما این امکان را می دهند که بر گفتگوی خود کنترل داشته باشیم و خود را آنطور که می خواهیم نمایش دهیم. به همین دلیل این فناوری ها نه تنها نحوه ارتباطات ما بلکه بر شکل گیری هویت فردی ما اثر گذارند. در واقع گفتگوهای واقعی نه چت ها در فضاهای مجازی به ما می آموزند چگونه با خودمان گفتگو کنیم و با از بین رفتن این گفتگو ما امکان اندیشیدن درباره خودمان که یک مهارت لازم برای رشد واقعی انسان است را از دست می دهیم.

📌 از نظر ترکل بر خلاف آنچه تصور می شود که ما در حال کنترل فناوری هستیم ، بالعکس این فناوری است که قلب و ذهن ما را به تصرف خودش در آورده است. ما احساس تنهایی می کنیم، فناوری با ایجاد یک گوش شنوا و یک همدرد مصنوعی به ما کمک می کند تا این درد را تسکین دهیم. اما واقعیت این است که فناوری درمان این مسئله نیست بلکه ما را دچار سه توهم می کند. نخست این که این تصور را ایجاد می کند که ما می توانیم توجهمان را به هرجایی که دلخواهمان است معطوف کنیم، دوم این که همیشه صدایمان شنیده می شود و سوم این که هیج وقت لازم نیست تنها بمانیم. در نگاه ترکل توهم سوم به شکل جدی بر روان ما تاثیر می گذارد.

📌 ما بیشتر و بیشتر برای این که خود را از کابوس تنهایی نجات دهیم به این فناوری ها پناه می بریم اما در عمل این باعث می شود که در دنیای واقعی باز هم تنها تر شویم. اگر ما تنهایی خود را با این شبکه ها و گفتگوهای مجازی پر کنیم و در تنهایی واقعی با خود قرار نگیریم نمی توانیم ارزش ارتباط واقعی با دیگران را فهم کنیم . و اگر ظرفیت و فهم ارتباطات واقعی را نداشته باشیم و افراد فکر کنند تنها از سر احساس شکننده تنهایی خودمان به آن ها رجوع می کنیم طرد خواهیم شد. به تعبیر دیگر اگر ما قادر نباشیم که تنها باشیم تنها تر می شویم.

📌 ترکل معتقد است ما باید مفهوم ارتباطات انسانی را باز تعریف کنیم. نباید اجازه داد که ارتباطات فناورانه جای بسیاری از این ارتباطات را بگیرند زیرا این به معنای ایجاد نقص در روان و هویت انسانی خواهد بود. ازین رو فناروی را باید به شکلی طراحی کرد که صرفا رو به سوی زندگی که ما دوست داریم داشته باشد.