🎬 معرفی ویدیو:☝️☝️☝️
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️
🗂#مهندسی_ژنتیک
عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته میشود
منبع: ScienceAlert ( ترجمه وبسایت زومیت)
📌 کریسپر (CRISPR-Cas9) بهعنوان یکی از مهمترین اختراعات پزشکی مدرن شناخته میشود؛ بهگونهای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور میشد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینهی علم ویرایش ژنها ایجاد کرد؛ اما اکنون دانشمندان دریافتهاند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم میشود. با توجه به اینکه هماکنون آزمایشهای بالینی در مورد کریسپر روی انسانها در جریان است، یافتهی اخیر باعث ایجاد نگرانیهای جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد میگوید:
ما معتقدیم که ضرورت دارد جامعهی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهشهای غیر هدفمند میشود. این جهشها شامل جهشهای تک نوکلئوتیدی و جهش در مناطق غیر کد در ژنوم میشود.
تسانگ به همراه تیم تحقیقاتیاش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آنها به دنبال کشف جهشهای ژنی ناخواسته در بخشهایی از ارگانیسم بودند که بهکلی با ناحیهی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسمها، هیچ اثری از جهشهای ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفادهشده در این مطالعات برگردد. در مطالعات پیشین از الگوریتمهای رایانهای برای اسکن بخشهایی از ارگانیسم استفاده شده بود که مرتبط با منطقهی هدف بودند و احتمال بروز جهش در آنها، بسته به نوع ویرایش ژنی انجامشده، بیشتر بود.
الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد اینگونه توضیح میدهد:
زمانی که شما از تکنیک کریسپر در سلولها یا بافتها در ابعاد محدود استفاده میکنید، این الگوریتمهای پیشبینی کننده کار خود را بهخوبی انجام میدهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهشهای ناخواسته در نواحی غیر مرتبط انجام نشده بود.
اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبتها در مورد توسعهی یک تکنولوژی شگفتانگیز در زمینهی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر بهعنوان انقلابی در پزشکی مدرن یاد میشود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دیانای انسانها، حیوانات و گیاهان اعمال کنند.
در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن میتوانند ژنهای مشخصی از یک ژنوم را بردارند و آن را با یک دیانای دلخواه جایگزین کنند. به این ترتیب برای مثال میتوان ژنهای معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینهها مختلف بهره میبرند. در سالهای اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهشهای ژنتیکی عامل کوری، درمان بیماریهای ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.
با اینکه در برخی از مطالعات گذشته نشانههایی از جهشهای غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافتهها نتوانسته بودند باعث توقف آزمایشهای انسانی کریسپر شوند.اولین مطالعهی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نماندهاند و هر یک در حال پیشبرد مطالعات خود هستند.
در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شدهاند. کریسپر تبدیل به نسخهی بیولوژیک رقابت فضایی بین قدرتهای جهانی شده است.کارل جوئن، متخصص ایمنیشناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر میکنم این موضوع در واقع بهنوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
🗂#مهندسی_ژنتیک
عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته میشود
منبع: ScienceAlert ( ترجمه وبسایت زومیت)
📌 کریسپر (CRISPR-Cas9) بهعنوان یکی از مهمترین اختراعات پزشکی مدرن شناخته میشود؛ بهگونهای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور میشد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینهی علم ویرایش ژنها ایجاد کرد؛ اما اکنون دانشمندان دریافتهاند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم میشود. با توجه به اینکه هماکنون آزمایشهای بالینی در مورد کریسپر روی انسانها در جریان است، یافتهی اخیر باعث ایجاد نگرانیهای جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد میگوید:
ما معتقدیم که ضرورت دارد جامعهی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهشهای غیر هدفمند میشود. این جهشها شامل جهشهای تک نوکلئوتیدی و جهش در مناطق غیر کد در ژنوم میشود.
تسانگ به همراه تیم تحقیقاتیاش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آنها به دنبال کشف جهشهای ژنی ناخواسته در بخشهایی از ارگانیسم بودند که بهکلی با ناحیهی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسمها، هیچ اثری از جهشهای ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفادهشده در این مطالعات برگردد. در مطالعات پیشین از الگوریتمهای رایانهای برای اسکن بخشهایی از ارگانیسم استفاده شده بود که مرتبط با منطقهی هدف بودند و احتمال بروز جهش در آنها، بسته به نوع ویرایش ژنی انجامشده، بیشتر بود.
الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد اینگونه توضیح میدهد:
زمانی که شما از تکنیک کریسپر در سلولها یا بافتها در ابعاد محدود استفاده میکنید، این الگوریتمهای پیشبینی کننده کار خود را بهخوبی انجام میدهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهشهای ناخواسته در نواحی غیر مرتبط انجام نشده بود.
اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبتها در مورد توسعهی یک تکنولوژی شگفتانگیز در زمینهی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر بهعنوان انقلابی در پزشکی مدرن یاد میشود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دیانای انسانها، حیوانات و گیاهان اعمال کنند.
در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن میتوانند ژنهای مشخصی از یک ژنوم را بردارند و آن را با یک دیانای دلخواه جایگزین کنند. به این ترتیب برای مثال میتوان ژنهای معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینهها مختلف بهره میبرند. در سالهای اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهشهای ژنتیکی عامل کوری، درمان بیماریهای ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.
با اینکه در برخی از مطالعات گذشته نشانههایی از جهشهای غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافتهها نتوانسته بودند باعث توقف آزمایشهای انسانی کریسپر شوند.اولین مطالعهی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نماندهاند و هر یک در حال پیشبرد مطالعات خود هستند.
در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شدهاند. کریسپر تبدیل به نسخهی بیولوژیک رقابت فضایی بین قدرتهای جهانی شده است.کارل جوئن، متخصص ایمنیشناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر میکنم این موضوع در واقع بهنوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
اما اکنون محققان دریافتهاند که استفاده از کریسپر بسیار گستردهتر از آن چیزی که قبلا گمانهزنی میشد و باعث بروز جهشهای ژنتیکی ناخواسته در حیوانات میشود. تیم تحقیقاتی تسانگ برای کشف این موضوع تمام ژنوم دو موش آزمایشگاهی را تعیین توالی کردند. این دو موش قبلا در معرض ویرایش ژنتیکی با کریسپر قرار گرفته بودند. آنها به دنبال کوچکترین جهش ناشی از استفاده از این تکنولوژی بودند؛ حتی جهش در یک تک نوکلئوتید، یا همان بلوک اصلی سازندهی دیانای و آرانای.
تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژنهای عامل کوری در موشها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موشها اتفاق افتاده است. تعداد جهشهای بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهشهای ژنتیکی توسط الگوریتمهای رایانهای که بهطور گسترده توسط محققان استفاده میشود، پیشبینی نشده بود.
البته یافتهی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژنها باعث نخواهد شد استفاده از این تکنولوژی بهطور کلی کنار گذاشته شود. هماکنون به مطالعات بیشتری برای اثبات این یافتهها نیاز است. نتایج تحقیق اخیر باید در نمونههای بیشتر و انسانها نیز تکرار شود.اما باید اقرار کرد که به نظر میرسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانیمدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آنها نشده بود. اما اکنون آنها باید هشدارهای مربوط به بروز جهشهای ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژنهای عامل کوری در موشها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موشها اتفاق افتاده است. تعداد جهشهای بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهشهای ژنتیکی توسط الگوریتمهای رایانهای که بهطور گسترده توسط محققان استفاده میشود، پیشبینی نشده بود.
البته یافتهی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژنها باعث نخواهد شد استفاده از این تکنولوژی بهطور کلی کنار گذاشته شود. هماکنون به مطالعات بیشتری برای اثبات این یافتهها نیاز است. نتایج تحقیق اخیر باید در نمونههای بیشتر و انسانها نیز تکرار شود.اما باید اقرار کرد که به نظر میرسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانیمدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آنها نشده بود. اما اکنون آنها باید هشدارهای مربوط به بروز جهشهای ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
📝یادداشت
عنوان: مسابقه ربط
نویسنده: اندرو لوئیس
مترجم: ابوطالب صفدری
بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشههای او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعتگرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانهواری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئلهای سادهتر که میلیونها انسان هر روز به آن فکر میکردند: اینکه چه برنامهای را در تلویزیون تماشا کنند.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
عنوان: مسابقه ربط
نویسنده: اندرو لوئیس
مترجم: ابوطالب صفدری
بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشههای او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعتگرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانهواری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئلهای سادهتر که میلیونها انسان هر روز به آن فکر میکردند: اینکه چه برنامهای را در تلویزیون تماشا کنند.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
اندیشکده مهاجر
مسابقۀ ربط - اندیشکده مهاجر
بهارِ 1994 بود که نیکلاس نگروپونته شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب -که محصول اندیشههای او بو جوان تراشه و صنعتگرانِ
🎬 معرفی ویدیو ☝️☝️☝️
🗂#اخلاق_زیستی #سقط_جنین
دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان میپردازد. با ظهور فناوریهای تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف میشوند را تغییر داده است. از سوی دیگر این فناوریهای به شدت مستعد تجاری شدن هستند و این فرصت را برای افراد تاجر مسلک فراهم کردهاند که به خرید فروش رویانهای فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحثها و گفتگوهای دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
🗂#اخلاق_زیستی #سقط_جنین
دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان میپردازد. با ظهور فناوریهای تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف میشوند را تغییر داده است. از سوی دیگر این فناوریهای به شدت مستعد تجاری شدن هستند و این فرصت را برای افراد تاجر مسلک فراهم کردهاند که به خرید فروش رویانهای فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحثها و گفتگوهای دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
📗معرفی کتاب ☝️☝️☝️
🗂#نانو_فناوری #تبعات_اجتماعی #تبعات_اخلاقی
📌 پیشرفتها در علوم و فناوریهای نانو وعده تاثیرات شگرفی را بر سلامت، ثروت و صلح جهانی در دهههای آینده میدهد. در میان این پیشرفتها میتوان به افزایش خیره کننده بهره وری کامپیوترها، بازیابی ارگانهای انسانی با استفاده از بافتهای مهندسی شده، موادی که به صورت مستقیم اتم به اتم و مولکول به مولکول طراحی شدهاند، و ظهور پدیدههای کاملا نوین در شیمی و فیزیک اشاره کرد. این کتاب شامل مجموعه ای از مقالات است که توسط دانشمندان پیشرو، مهندسان و اساتید علوم اجتماعی به رشته تحریر درآمده و در آن به مروری بر کاربردهای ممکن توسعه قریب الوقوع این فناوری در بسیاری از حوزههای کاربردهای صنعتی، پزشکی و امنیت ملی و همچنین مسائل مرتبط اخلاقی، حقوقی، آموزشی و اقتصادی آن پرداخته می شود. این مقالات به زمینههای بالقوهی تحقیق درباره تبعات اجتماعی نانو فناوری اشاره دارند و درکنار آن نیز برخی پیشنهادات اولیه برای این که اثرات مثبت احتمالی نانو فناوری حداکثر گردد و اثرات منفی آن به حداقل برسد ارائه میکنند . این کتاب البته میتواند به عنوان الگویی برای چگونگی مواجه با تبعات اجتماعی مثبت یا منفی دیگر فناوریهای نوین لحاظ شود. این کتاب با حمایت برنامه پیشگامی نانو فناوری ایالات متحده (NNI) به چاپ رسیده است اما مسائلی که در آن به آنها پرداخته شده است هم دارای مقیاس جهانیاند و هم به مسائل فوری و آینده نگرانه نانو فناوری را در بر میگیرند. پرسش اصلی محققان این کتاب این است که چگونه تاریخ و شرایط انسانی تحت تاثیر توسعه فناوری قرار میگیرد و چگونه افراد و نهاد ها می توانند توسعه فناوری را به نحوی هدایت کنند که در طولانی مدت به نفع انسان باشد.
📌درباره نویسندگان:
1- میخاییل روکو (Mihail C. Roco) مشاور ارشد نانوفناوری بنیاد ملی علوم (NSF) و برنامه پیشگامی نانو فناوری (NNI) در ایالات متحده است. از او مقالات و کتب فراوانی در زمینه تاثیرات اجتماعی فناوریهای نوین به خصوص نانو فناوری و روشهای سیاست گذاری برای مواجهه صحیح با آن ها به چاپ رسیده است.
2- ویلیام بین بریج (William Sims Bainbridge) جامعه شناس آمریکایی و مدیر بخش سیستم های انسان-سایبر در بیناد ملی علوم ایالات متحده است. او یکی از همکاران ارشد در انستیتو اخلاق و تکنولوژی های در حال ظهور است. بین بریج همچنین به دارای تالیفات شناخته شدهای در جامعه شناسی دین است.
📌مشخصات کتاب شناختی:
Title: Nanotechnology: Societal Implications: I: Maximising Benefits for Humanity; II: Individual Perspectives
Editor: Mihail C Roco , William Sims Bainbridge
Publisher: Springer 2007
ISBN: 1402054327, 9781402054327
Length: 357 pages
🗂#نانو_فناوری #تبعات_اجتماعی #تبعات_اخلاقی
📌 پیشرفتها در علوم و فناوریهای نانو وعده تاثیرات شگرفی را بر سلامت، ثروت و صلح جهانی در دهههای آینده میدهد. در میان این پیشرفتها میتوان به افزایش خیره کننده بهره وری کامپیوترها، بازیابی ارگانهای انسانی با استفاده از بافتهای مهندسی شده، موادی که به صورت مستقیم اتم به اتم و مولکول به مولکول طراحی شدهاند، و ظهور پدیدههای کاملا نوین در شیمی و فیزیک اشاره کرد. این کتاب شامل مجموعه ای از مقالات است که توسط دانشمندان پیشرو، مهندسان و اساتید علوم اجتماعی به رشته تحریر درآمده و در آن به مروری بر کاربردهای ممکن توسعه قریب الوقوع این فناوری در بسیاری از حوزههای کاربردهای صنعتی، پزشکی و امنیت ملی و همچنین مسائل مرتبط اخلاقی، حقوقی، آموزشی و اقتصادی آن پرداخته می شود. این مقالات به زمینههای بالقوهی تحقیق درباره تبعات اجتماعی نانو فناوری اشاره دارند و درکنار آن نیز برخی پیشنهادات اولیه برای این که اثرات مثبت احتمالی نانو فناوری حداکثر گردد و اثرات منفی آن به حداقل برسد ارائه میکنند . این کتاب البته میتواند به عنوان الگویی برای چگونگی مواجه با تبعات اجتماعی مثبت یا منفی دیگر فناوریهای نوین لحاظ شود. این کتاب با حمایت برنامه پیشگامی نانو فناوری ایالات متحده (NNI) به چاپ رسیده است اما مسائلی که در آن به آنها پرداخته شده است هم دارای مقیاس جهانیاند و هم به مسائل فوری و آینده نگرانه نانو فناوری را در بر میگیرند. پرسش اصلی محققان این کتاب این است که چگونه تاریخ و شرایط انسانی تحت تاثیر توسعه فناوری قرار میگیرد و چگونه افراد و نهاد ها می توانند توسعه فناوری را به نحوی هدایت کنند که در طولانی مدت به نفع انسان باشد.
📌درباره نویسندگان:
1- میخاییل روکو (Mihail C. Roco) مشاور ارشد نانوفناوری بنیاد ملی علوم (NSF) و برنامه پیشگامی نانو فناوری (NNI) در ایالات متحده است. از او مقالات و کتب فراوانی در زمینه تاثیرات اجتماعی فناوریهای نوین به خصوص نانو فناوری و روشهای سیاست گذاری برای مواجهه صحیح با آن ها به چاپ رسیده است.
2- ویلیام بین بریج (William Sims Bainbridge) جامعه شناس آمریکایی و مدیر بخش سیستم های انسان-سایبر در بیناد ملی علوم ایالات متحده است. او یکی از همکاران ارشد در انستیتو اخلاق و تکنولوژی های در حال ظهور است. بین بریج همچنین به دارای تالیفات شناخته شدهای در جامعه شناسی دین است.
📌مشخصات کتاب شناختی:
Title: Nanotechnology: Societal Implications: I: Maximising Benefits for Humanity; II: Individual Perspectives
Editor: Mihail C Roco , William Sims Bainbridge
Publisher: Springer 2007
ISBN: 1402054327, 9781402054327
Length: 357 pages
🗣خبر☝️☝️☝️
🗂#هوش_مصنوعی
عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد
منبع:MSPU (ترجمه از وب سایت دیجیاتو)
هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.
با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.
حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد
پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.
در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.
اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🗂#هوش_مصنوعی
عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد
منبع:MSPU (ترجمه از وب سایت دیجیاتو)
هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.
با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.
حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد
پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.
در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.
اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🎬 معرفی ویدیو☝️☝️☝️
🗂#سایبورگ #تازه_های_فناوری
ویدیو فوق به مصاحبه ی با نیل هاربیسون (Neil Harbisson) یکی از معدود سایبورگ های حال حاضر جهان اختصاص دارد. او که از پایه گذاران بنیاد سایبورگ است ترکیب شدن انسان ها با تکنولوژی را امری اجتناب ناپذیر می داند و معتقد است این امر منجر به افزایش توانایی ها ی انسان می گردد. از نظر هاربیسون سایبورگی شدن درنهایت برای جامعه به امری عادی تبدیل خواهد شد و به طور خاص گسترش تکنولوژی های پوشیدنی کنونی زمینه لازم را برای مرحله بعدی یعنی کاشت تکنولوژی ها در بدن انسان فراهم خواهد آورد.
🗂#سایبورگ #تازه_های_فناوری
ویدیو فوق به مصاحبه ی با نیل هاربیسون (Neil Harbisson) یکی از معدود سایبورگ های حال حاضر جهان اختصاص دارد. او که از پایه گذاران بنیاد سایبورگ است ترکیب شدن انسان ها با تکنولوژی را امری اجتناب ناپذیر می داند و معتقد است این امر منجر به افزایش توانایی ها ی انسان می گردد. از نظر هاربیسون سایبورگی شدن درنهایت برای جامعه به امری عادی تبدیل خواهد شد و به طور خاص گسترش تکنولوژی های پوشیدنی کنونی زمینه لازم را برای مرحله بعدی یعنی کاشت تکنولوژی ها در بدن انسان فراهم خواهد آورد.
🗣خبر ☝️☝️☝️
🗂#اخلاق_ربات #حریم_خصوصی
🔴 عنوان : کمپانی سازنده جاروبرقی های رباتیک،اطلاعات چیدمان منزل کاربران را می فروشد
🔴 منبع: Engadget (به نقل از دیجیاتو)
📌 آی ربات (IRobot) در سال 1990 میلادی و توسط سه تن از فارغ التحصیلان دانشگاه MIT تاسیس شد. این کمپانی محصولات و خدمات متنوعی داشته اما در سطح دنیا بیشتر به خاطر تولید جاروبرقی های رباتیک خود به نام «Roomba» مشهور است. شرکت مورد بحث در سال 2015 مدل جدیدی تحت عنوان «Roomba 980» را معرفی کرد که به سنسورها و توانایی های ارتباطی فراوانی از جمله وای فای مجهز شده و علاوه بر تمیز کردن سطح منزل، اطلاعات مربوط به محل اتاق ها، راهروها و چیدمان لوازم خانگی را نیز جمع آوری می کند. رومبا سپس از اطلاعات مذکور به عنوان مرجعی برای مسیریابی استفاده کرده و بهینه ترین مسیر را برای جارو کردن خانه انتخاب می کند.
حال آقای «کالین انگِل» مدیر عامل کمپانی، اعلام کرده قصد دارد اطلاعات مورد بحث را به شرکت هایی مانند گوگل، اپل یا آمازون بفروشد. این اطلاعات خصوصاً برای برنامه های خانه هوشمند شرکت های مذکور از اهمیت ویژه ای برخوردار بوده و امکان ارائه قابلیت های جدیدی از طریق دستیارهای صوتی هوشمند را فراهم می کند.
البته انگِل عنوان کرده که اطلاعات جمع آوری شده توسط رومباها، بدون اجازه کاربران فروخته نخواهد شد و صاحبان جاروبرقی های رباتیک مذکور می توانند به راحتی، قابلیت ارتباط با فضای ابری و اشتراک اطلاعات را خاموش کنند.
اما جالب اینجاست که امکان فروش اطلاعات کاربران توسط کمپانی، در «موافقتنامه کاربر» ذکر شده و تمامی مالکان رومبا هنگام خرید و راه اندازی دستگاه خود آن را تایید کرده اند. از همین رو نگرانی هایی در زمینه حریم خصوصی توسط مشتریان و برخی از مراجع حقوقی مطرح شده که بر اساس برخی تحلیل ها، به کاهش فروش محصولات iRobot خواهد انجامید. هرچند مدیر عامل شرکت مورد بحث در این باره نگران نیست و اعلام کرده که اکثر مشتریان مایلند در ازای اشتراک اطلاعات این چنینی، محصولات و خدمات با کیفیت تری را به دست بیاورند.
📌 به روز رسانی:
کالین آنگل مدیرعامل این شرکت به دنبال شدت گرفتن موج اعتراضات به این گفته ها، اعلام کرد که شرکت iRobot هیچگاه اطلاعات کاربرانش را نمی فروشد. یکی از سخنگویان این شرکت نیز اظهار داشت که از گفته های مدیرعامل سوء برداشت شده است.
کالین آنگل که پیشتر اعلام کرده بود شرکت مطبوعش در راستای بهبود وسایل هوشمند، اطلاعات گردآوری شده از طریق جارو ربات ها را در اختیار شرکت های دیگر می گذارد حالا مدعی شده این مساله کاملا به انتخاب کاربران بر می گردد و اجباری در این موضوع نیست.
🗂#اخلاق_ربات #حریم_خصوصی
🔴 عنوان : کمپانی سازنده جاروبرقی های رباتیک،اطلاعات چیدمان منزل کاربران را می فروشد
🔴 منبع: Engadget (به نقل از دیجیاتو)
📌 آی ربات (IRobot) در سال 1990 میلادی و توسط سه تن از فارغ التحصیلان دانشگاه MIT تاسیس شد. این کمپانی محصولات و خدمات متنوعی داشته اما در سطح دنیا بیشتر به خاطر تولید جاروبرقی های رباتیک خود به نام «Roomba» مشهور است. شرکت مورد بحث در سال 2015 مدل جدیدی تحت عنوان «Roomba 980» را معرفی کرد که به سنسورها و توانایی های ارتباطی فراوانی از جمله وای فای مجهز شده و علاوه بر تمیز کردن سطح منزل، اطلاعات مربوط به محل اتاق ها، راهروها و چیدمان لوازم خانگی را نیز جمع آوری می کند. رومبا سپس از اطلاعات مذکور به عنوان مرجعی برای مسیریابی استفاده کرده و بهینه ترین مسیر را برای جارو کردن خانه انتخاب می کند.
حال آقای «کالین انگِل» مدیر عامل کمپانی، اعلام کرده قصد دارد اطلاعات مورد بحث را به شرکت هایی مانند گوگل، اپل یا آمازون بفروشد. این اطلاعات خصوصاً برای برنامه های خانه هوشمند شرکت های مذکور از اهمیت ویژه ای برخوردار بوده و امکان ارائه قابلیت های جدیدی از طریق دستیارهای صوتی هوشمند را فراهم می کند.
البته انگِل عنوان کرده که اطلاعات جمع آوری شده توسط رومباها، بدون اجازه کاربران فروخته نخواهد شد و صاحبان جاروبرقی های رباتیک مذکور می توانند به راحتی، قابلیت ارتباط با فضای ابری و اشتراک اطلاعات را خاموش کنند.
اما جالب اینجاست که امکان فروش اطلاعات کاربران توسط کمپانی، در «موافقتنامه کاربر» ذکر شده و تمامی مالکان رومبا هنگام خرید و راه اندازی دستگاه خود آن را تایید کرده اند. از همین رو نگرانی هایی در زمینه حریم خصوصی توسط مشتریان و برخی از مراجع حقوقی مطرح شده که بر اساس برخی تحلیل ها، به کاهش فروش محصولات iRobot خواهد انجامید. هرچند مدیر عامل شرکت مورد بحث در این باره نگران نیست و اعلام کرده که اکثر مشتریان مایلند در ازای اشتراک اطلاعات این چنینی، محصولات و خدمات با کیفیت تری را به دست بیاورند.
📌 به روز رسانی:
کالین آنگل مدیرعامل این شرکت به دنبال شدت گرفتن موج اعتراضات به این گفته ها، اعلام کرد که شرکت iRobot هیچگاه اطلاعات کاربرانش را نمی فروشد. یکی از سخنگویان این شرکت نیز اظهار داشت که از گفته های مدیرعامل سوء برداشت شده است.
کالین آنگل که پیشتر اعلام کرده بود شرکت مطبوعش در راستای بهبود وسایل هوشمند، اطلاعات گردآوری شده از طریق جارو ربات ها را در اختیار شرکت های دیگر می گذارد حالا مدعی شده این مساله کاملا به انتخاب کاربران بر می گردد و اجباری در این موضوع نیست.
📝یادداشت
عنوان: کنفرانسها و همایشهای علمی بهمثابه تکنولوژی
نویسنده: مهدی خلیلی
با توجه به برگزاری همایشها و کنفرانسهای بیشمار در کشورمان، جا دارد به فهمِ بنیادین این پدیده همت گماشته شود. من در متن حاضر تلاش دارم، با فراهم آوردن مبنایی نظری، تمرینی برای فهم چیستی "کنفرانس" و یا "همایش" داشته باشم. این متن سه بخش خواهد داشت. بخش اول به هایدگر، بخش دوم به گادامر، و بخش سوم به برگمان اختصاص دارد. در ابتدای هر بخش نظر آن متفکر دربارهی فناوری شرح داده میشود، و سپس در پرتو آن، "کنفرانسها و همایشهای علمی" تحلیل میشود. تلاش آن است که درمجموع یک دیدگاه منسجم در رابطه با کنفرانسها و همایشهای علمی فراهم، و در بخش نتیجهگیری این متن ارائه شود.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/i5rQZS
عنوان: کنفرانسها و همایشهای علمی بهمثابه تکنولوژی
نویسنده: مهدی خلیلی
با توجه به برگزاری همایشها و کنفرانسهای بیشمار در کشورمان، جا دارد به فهمِ بنیادین این پدیده همت گماشته شود. من در متن حاضر تلاش دارم، با فراهم آوردن مبنایی نظری، تمرینی برای فهم چیستی "کنفرانس" و یا "همایش" داشته باشم. این متن سه بخش خواهد داشت. بخش اول به هایدگر، بخش دوم به گادامر، و بخش سوم به برگمان اختصاص دارد. در ابتدای هر بخش نظر آن متفکر دربارهی فناوری شرح داده میشود، و سپس در پرتو آن، "کنفرانسها و همایشهای علمی" تحلیل میشود. تلاش آن است که درمجموع یک دیدگاه منسجم در رابطه با کنفرانسها و همایشهای علمی فراهم، و در بخش نتیجهگیری این متن ارائه شود.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/i5rQZS
اندیشکده مهاجر
کنفرانسها و همایشهای علمی بهمثابه تکنولوژی؛ بر اساس دیدگاه هایدگر، گادامر، و برگمان - اندیشکده مهاجر
توجه به برگزاری همایشها و کنفرانسهای بیشمار در کشورمانکنفرانسها و همایشهای علمی بهمثابه تکنولوژی؛ بر اساس دیدگاه هایدگر، گادامر، و برگمان
🎬 معرفی ویدیو☝️☝️☝️
🗂#فضای_مجازی #فناری_ارتباطات_و_اطلاعات
📌 شری ترکل (Sherry Turkle) استاد مطالعات اجتماعی علم و فناوری در دانشگاه MIT است. او دارای مدرک دکترای جامعه شناسی و روانشناسی شخصیت از دانشگاه هاروارد است. در حال حاضر تمرکز تحقیقات او بر روی تحلیل روانی نسبت انسان-فناوری است.از او چندین کتاب در مورد روانشناسی رابطه انسان و فناوری به خصوص در مورد تکنولوژی های جدید ارتباطی به چاپ رسیده است.
📌 در این سخنرانی ترکل به نوع جدیدی از تنهایی در عصر ارتباطات می پردازد. تنهایی که در آن با وجود این که در جمع هستیم اما همچنان قدرت گفتگو و ارتباط واقعی با دیگران را نداریم. ما دوست داریم از وسایل نوین ارتباطی استفاده کنیم زیرا آنها به ما این امکان را می دهند که بر گفتگوی خود کنترل داشته باشیم و خود را آنطور که می خواهیم نمایش دهیم. به همین دلیل این فناوری ها نه تنها نحوه ارتباطات ما بلکه بر شکل گیری هویت فردی ما اثر گذارند. در واقع گفتگوهای واقعی نه چت ها در فضاهای مجازی به ما می آموزند چگونه با خودمان گفتگو کنیم و با از بین رفتن این گفتگو ما امکان اندیشیدن درباره خودمان که یک مهارت لازم برای رشد واقعی انسان است را از دست می دهیم.
📌 از نظر ترکل بر خلاف آنچه تصور می شود که ما در حال کنترل فناوری هستیم ، بالعکس این فناوری است که قلب و ذهن ما را به تصرف خودش در آورده است. ما احساس تنهایی می کنیم، فناوری با ایجاد یک گوش شنوا و یک همدرد مصنوعی به ما کمک می کند تا این درد را تسکین دهیم. اما واقعیت این است که فناوری درمان این مسئله نیست بلکه ما را دچار سه توهم می کند. نخست این که این تصور را ایجاد می کند که ما می توانیم توجهمان را به هرجایی که دلخواهمان است معطوف کنیم، دوم این که همیشه صدایمان شنیده می شود و سوم این که هیج وقت لازم نیست تنها بمانیم. در نگاه ترکل توهم سوم به شکل جدی بر روان ما تاثیر می گذارد.
📌 ما بیشتر و بیشتر برای این که خود را از کابوس تنهایی نجات دهیم به این فناوری ها پناه می بریم اما در عمل این باعث می شود که در دنیای واقعی باز هم تنها تر شویم. اگر ما تنهایی خود را با این شبکه ها و گفتگوهای مجازی پر کنیم و در تنهایی واقعی با خود قرار نگیریم نمی توانیم ارزش ارتباط واقعی با دیگران را فهم کنیم . و اگر ظرفیت و فهم ارتباطات واقعی را نداشته باشیم و افراد فکر کنند تنها از سر احساس شکننده تنهایی خودمان به آن ها رجوع می کنیم طرد خواهیم شد. به تعبیر دیگر اگر ما قادر نباشیم که تنها باشیم تنها تر می شویم.
📌 ترکل معتقد است ما باید مفهوم ارتباطات انسانی را باز تعریف کنیم. نباید اجازه داد که ارتباطات فناورانه جای بسیاری از این ارتباطات را بگیرند زیرا این به معنای ایجاد نقص در روان و هویت انسانی خواهد بود. ازین رو فناروی را باید به شکلی طراحی کرد که صرفا رو به سوی زندگی که ما دوست داریم داشته باشد.
🗂#فضای_مجازی #فناری_ارتباطات_و_اطلاعات
📌 شری ترکل (Sherry Turkle) استاد مطالعات اجتماعی علم و فناوری در دانشگاه MIT است. او دارای مدرک دکترای جامعه شناسی و روانشناسی شخصیت از دانشگاه هاروارد است. در حال حاضر تمرکز تحقیقات او بر روی تحلیل روانی نسبت انسان-فناوری است.از او چندین کتاب در مورد روانشناسی رابطه انسان و فناوری به خصوص در مورد تکنولوژی های جدید ارتباطی به چاپ رسیده است.
📌 در این سخنرانی ترکل به نوع جدیدی از تنهایی در عصر ارتباطات می پردازد. تنهایی که در آن با وجود این که در جمع هستیم اما همچنان قدرت گفتگو و ارتباط واقعی با دیگران را نداریم. ما دوست داریم از وسایل نوین ارتباطی استفاده کنیم زیرا آنها به ما این امکان را می دهند که بر گفتگوی خود کنترل داشته باشیم و خود را آنطور که می خواهیم نمایش دهیم. به همین دلیل این فناوری ها نه تنها نحوه ارتباطات ما بلکه بر شکل گیری هویت فردی ما اثر گذارند. در واقع گفتگوهای واقعی نه چت ها در فضاهای مجازی به ما می آموزند چگونه با خودمان گفتگو کنیم و با از بین رفتن این گفتگو ما امکان اندیشیدن درباره خودمان که یک مهارت لازم برای رشد واقعی انسان است را از دست می دهیم.
📌 از نظر ترکل بر خلاف آنچه تصور می شود که ما در حال کنترل فناوری هستیم ، بالعکس این فناوری است که قلب و ذهن ما را به تصرف خودش در آورده است. ما احساس تنهایی می کنیم، فناوری با ایجاد یک گوش شنوا و یک همدرد مصنوعی به ما کمک می کند تا این درد را تسکین دهیم. اما واقعیت این است که فناوری درمان این مسئله نیست بلکه ما را دچار سه توهم می کند. نخست این که این تصور را ایجاد می کند که ما می توانیم توجهمان را به هرجایی که دلخواهمان است معطوف کنیم، دوم این که همیشه صدایمان شنیده می شود و سوم این که هیج وقت لازم نیست تنها بمانیم. در نگاه ترکل توهم سوم به شکل جدی بر روان ما تاثیر می گذارد.
📌 ما بیشتر و بیشتر برای این که خود را از کابوس تنهایی نجات دهیم به این فناوری ها پناه می بریم اما در عمل این باعث می شود که در دنیای واقعی باز هم تنها تر شویم. اگر ما تنهایی خود را با این شبکه ها و گفتگوهای مجازی پر کنیم و در تنهایی واقعی با خود قرار نگیریم نمی توانیم ارزش ارتباط واقعی با دیگران را فهم کنیم . و اگر ظرفیت و فهم ارتباطات واقعی را نداشته باشیم و افراد فکر کنند تنها از سر احساس شکننده تنهایی خودمان به آن ها رجوع می کنیم طرد خواهیم شد. به تعبیر دیگر اگر ما قادر نباشیم که تنها باشیم تنها تر می شویم.
📌 ترکل معتقد است ما باید مفهوم ارتباطات انسانی را باز تعریف کنیم. نباید اجازه داد که ارتباطات فناورانه جای بسیاری از این ارتباطات را بگیرند زیرا این به معنای ایجاد نقص در روان و هویت انسانی خواهد بود. ازین رو فناروی را باید به شکلی طراحی کرد که صرفا رو به سوی زندگی که ما دوست داریم داشته باشد.