Media is too big
VIEW IN TELEGRAM
Anti-Abuse Working Group Minutes RIPE 77
👉🏼 PDF:
Criminal Abuse in RIPE IP Space
https://ripe77.ripe.net/presentations/134-RIPE77_Anti_Abuse_WG.pdf
📺 https://ripe77.ripe.net/archives/video/2286/
#CriminalAbuse #RIPE77 #WorkingGroup #video
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
👉🏼 PDF:
Criminal Abuse in RIPE IP Space
https://ripe77.ripe.net/presentations/134-RIPE77_Anti_Abuse_WG.pdf
📺 https://ripe77.ripe.net/archives/video/2286/
#CriminalAbuse #RIPE77 #WorkingGroup #video
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Media is too big
VIEW IN TELEGRAM
Privacy leaks in smart devices: Extracting data from used smart home devices
Remember the good old fun sport, where people bought random hard drives from ebay and did forensics on them?
Did you know you can do the same thing with used #IoT #devices too? Most end-users have no idea what kind of #information their devices are storing and how to securely clean their devices (if that even is possible). Lets explore together what the risks are and how we can extract that data.
📺 https://media.ccc.de/v/Camp2019-10355-privacy_leaks_in_smart_devices_extracting_data_from_used_smart_home_devices
#ChaosCommunicationCamp #CCCamp19 #CCC #network #security #video #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Remember the good old fun sport, where people bought random hard drives from ebay and did forensics on them?
Did you know you can do the same thing with used #IoT #devices too? Most end-users have no idea what kind of #information their devices are storing and how to securely clean their devices (if that even is possible). Lets explore together what the risks are and how we can extract that data.
📺 https://media.ccc.de/v/Camp2019-10355-privacy_leaks_in_smart_devices_extracting_data_from_used_smart_home_devices
#ChaosCommunicationCamp #CCCamp19 #CCC #network #security #video #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
NPP 184 with Lawrence Lessig: on Joi Ito, the MIT Media Lab and…
Lawrence Lessig, Chris Köver, Alexander Fanta
NPP 184 with Lawrence Lessig: on Joi Ito, the MIT Media Lab and reputation laundering
The #MIT Media Lab took millions in donations from Jeffrey #Epstein and director Joi #Ito was trying to hide it. Was Ito doing the right thing? A conversation with Lawrence #Lessig on Epstein, Ito, MIT and the damage done by taking money from a donor who has caused such significant pain to so many.
📻 https://netzpolitik.org/2019/npp-184-with-lawrence-lessig-on-joi-ito-the-mit-media-lab-and-reputation-laundering/
#NPP #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The #MIT Media Lab took millions in donations from Jeffrey #Epstein and director Joi #Ito was trying to hide it. Was Ito doing the right thing? A conversation with Lawrence #Lessig on Epstein, Ito, MIT and the damage done by taking money from a donor who has caused such significant pain to so many.
📻 https://netzpolitik.org/2019/npp-184-with-lawrence-lessig-on-joi-ito-the-mit-media-lab-and-reputation-laundering/
#NPP #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Database leaks data on most of Ecuador's citizens, including 6.7 million children
Elasticsearch server leaks personal data on Ecuador's citizens, their family trees, and children, but also some users' financial records and car registration information.
The personal records of most of Ecuador's population, including children, has been left exposed online due to a misconfigured database, ZDNet has learned.
The database, an Elasticsearch searver, was discovered two weeks ago by vpnMentor security researchers Noam Rotem and Ran Locar, who shared their findings exclusively with ZDNet. Together, we worked to analyze the leaking data, verify its authenticity, and contact the server owner.
The leaky server is one of the, if not the biggest, data breaches in Ecuador's history, a small South American country with a population of 16.6 million citizens.
20.8 million user records
The Elasticsearch server contained a total of approximately 20.8 million user records, a number larger than the country's total population count. The bigger number comes from duplicate records or older entries, containing the data of deceased persons.
The data was spread across different Elasticsearch indexes. These indexes contained different information, supposedly obtained from different sources. They stored details such as names, information on family members/trees, civil registration data, financial and work information, but also data on car ownership.
Based on the names of these indexes, the entire database could be split in two main categories, based on the data's supposed origin. There's data that appears to have been gathered from a government sources, and data that appears to have been gathered from private databases.
The data from government sources
The most extensive data was the one that appears to have been gathered from the Ecuadorian government's civil registry.
This data contained entries holding citizens' full names, dates of birth, places of birth, home addresses, marital status, cedulas (national ID numbers), work/job information, phone numbers, and education levels.
ZDNet verified the authenticity of this data by contacting some users listed in the database. The database was up to date, containing information as recent as 2019.
We were able to find records for the country's president, and even Julian Assange, who once received political asylum from the small South Americam country, and was issued a natioanl ID number (cedula).
👉🏼 Read more:
https://www.zdnet.com/article/database-leaks-data-on-most-of-ecuadors-citizens-including-6-7-million-children/
👉🏼 Read on TG:
https://t.iss.one/BlackBox_EN/3100
#database #leak #ecuador
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Elasticsearch server leaks personal data on Ecuador's citizens, their family trees, and children, but also some users' financial records and car registration information.
The personal records of most of Ecuador's population, including children, has been left exposed online due to a misconfigured database, ZDNet has learned.
The database, an Elasticsearch searver, was discovered two weeks ago by vpnMentor security researchers Noam Rotem and Ran Locar, who shared their findings exclusively with ZDNet. Together, we worked to analyze the leaking data, verify its authenticity, and contact the server owner.
The leaky server is one of the, if not the biggest, data breaches in Ecuador's history, a small South American country with a population of 16.6 million citizens.
20.8 million user records
The Elasticsearch server contained a total of approximately 20.8 million user records, a number larger than the country's total population count. The bigger number comes from duplicate records or older entries, containing the data of deceased persons.
The data was spread across different Elasticsearch indexes. These indexes contained different information, supposedly obtained from different sources. They stored details such as names, information on family members/trees, civil registration data, financial and work information, but also data on car ownership.
Based on the names of these indexes, the entire database could be split in two main categories, based on the data's supposed origin. There's data that appears to have been gathered from a government sources, and data that appears to have been gathered from private databases.
The data from government sources
The most extensive data was the one that appears to have been gathered from the Ecuadorian government's civil registry.
This data contained entries holding citizens' full names, dates of birth, places of birth, home addresses, marital status, cedulas (national ID numbers), work/job information, phone numbers, and education levels.
ZDNet verified the authenticity of this data by contacting some users listed in the database. The database was up to date, containing information as recent as 2019.
We were able to find records for the country's president, and even Julian Assange, who once received political asylum from the small South Americam country, and was issued a natioanl ID number (cedula).
👉🏼 Read more:
https://www.zdnet.com/article/database-leaks-data-on-most-of-ecuadors-citizens-including-6-7-million-children/
👉🏼 Read on TG:
https://t.iss.one/BlackBox_EN/3100
#database #leak #ecuador
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Computer scientist Richard Stallman, who defended Jeffrey Epstein, resigns from MIT CSAIL and the Free Software Foundation
Computer scientist and open software advocate Richard Stallman said he has resigned from his position as a visiting scientist at MIT’s Computer Science and Artificial Intelligence Lab (CSAIL) after describing a victim of sex trafficker Jeffrey Epstein as “entirely willing” in emails sent to a department list. Stallman has also stepped down from his roles as president and board director at the Free Software Foundation, the nonprofit he founded in 1985.
Last week, the Daily Beast reported that Stallman had also called for the legalization of child pornography and abolishment of age of consent laws on his personal blog in multiple posts published over the course of 15 years. https://www.thedailybeast.com/famed-mit-computer-scientist-richard-stallman-defends-epstein-victims-were-entirely-willing
In his MIT CSAIL resignation, also posted to his personal blog, Stallman wrote: “To the MIT Community, I am resigning effective immediately from my position in CSAIL at MIT. I am doing this due to pressure on MIT and me over a series of misunderstandings.”
MIT has been under scrutiny for its ties to Epstein, who a New Yorker investigation found had secured $7.5 million in donations for the MIT Media Lab, far more than what was previously disclosed. As a result, its director, Joi Ito, resigned last week and MIT ordered an investigation into the Media Lab’s ties to Epstein, who was found dead in his jail cell last month while awaiting federal trial on sex trafficking charges.
As part of its preliminary findings, MIT president Rafael Reif admitted that the law firm conducting the investigation had uncovered a letter he wrote to thank Epstein for a donation in 2012, four years after Epstein had already pled guilty to procuring for prostitution a girl under 18. “I apparently signed this letter on August 16, 2012, about six weeks into my presidency,” Reif wrote. “Although I do not recall it, it does bear my signature.” https://www.thedailybeast.com/mit-president-l-rafael-reif-admits-he-knew-about-jeffrey-epsteins-donations
👉🏼 Read more:
https://techcrunch.com/2019/09/16/computer-scientist-richard-stallman-who-defended-jeffrey-epstein-resigns-from-mit-csail-and-the-free-software-foundation/
#stallman #epstein #ChildPornography #pedo #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Computer scientist and open software advocate Richard Stallman said he has resigned from his position as a visiting scientist at MIT’s Computer Science and Artificial Intelligence Lab (CSAIL) after describing a victim of sex trafficker Jeffrey Epstein as “entirely willing” in emails sent to a department list. Stallman has also stepped down from his roles as president and board director at the Free Software Foundation, the nonprofit he founded in 1985.
Last week, the Daily Beast reported that Stallman had also called for the legalization of child pornography and abolishment of age of consent laws on his personal blog in multiple posts published over the course of 15 years. https://www.thedailybeast.com/famed-mit-computer-scientist-richard-stallman-defends-epstein-victims-were-entirely-willing
In his MIT CSAIL resignation, also posted to his personal blog, Stallman wrote: “To the MIT Community, I am resigning effective immediately from my position in CSAIL at MIT. I am doing this due to pressure on MIT and me over a series of misunderstandings.”
MIT has been under scrutiny for its ties to Epstein, who a New Yorker investigation found had secured $7.5 million in donations for the MIT Media Lab, far more than what was previously disclosed. As a result, its director, Joi Ito, resigned last week and MIT ordered an investigation into the Media Lab’s ties to Epstein, who was found dead in his jail cell last month while awaiting federal trial on sex trafficking charges.
As part of its preliminary findings, MIT president Rafael Reif admitted that the law firm conducting the investigation had uncovered a letter he wrote to thank Epstein for a donation in 2012, four years after Epstein had already pled guilty to procuring for prostitution a girl under 18. “I apparently signed this letter on August 16, 2012, about six weeks into my presidency,” Reif wrote. “Although I do not recall it, it does bear my signature.” https://www.thedailybeast.com/mit-president-l-rafael-reif-admits-he-knew-about-jeffrey-epsteins-donations
👉🏼 Read more:
https://techcrunch.com/2019/09/16/computer-scientist-richard-stallman-who-defended-jeffrey-epstein-resigns-from-mit-csail-and-the-free-software-foundation/
#stallman #epstein #ChildPornography #pedo #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
🇪🇸 El gobierno de EE.UU quiere leer los correos de los jefes de Facebook, Apple y más.
Las investigaciones antimonopolio que se están sucediendo a las principales empresas tecnológicas podría dar un paso más allá. El gobierno de Estados Unidos pide leer los correos de los principales CEOs tecnológicos. Entre ellos se encuentran Mark Zuckerberg, CEO de Facebook o Tim Cook, CEO de Apple.
Uno de los más altos cargos del ejecutivo de Estados Unidos solicita poder revisar estos correos en el marco de una importante investigación antimonopolio que está llevando a cabo el país.
Como ya pudimos comprobar, estos correos pueden contener información sensible tanto de la persona en cuestión como de la empresa que lleva. De revelarse estos correos podríamos asistir a una importante sacudida en el sector tecnológico al revelarse sus principales acciones.
✳️ El gobierno de los EE.UU quiere acceder a correos de Facebook, Amazon o Apple
Tal y como aseguran desde TechRadar y Reuters esta solicitud proviene de un plan de la Cámara de Representantes estadounidense para buscar todavía más información sobre cómo las empresas tecnológicas principales llevan a cabo sus operaciones comerciales.
Estos legisladores buscan, entre otros, correos que hablen de adquisiciones de alto nivel como la adquisición de YouTube de YouTube y Android o la compra de WhatsApp e Instagram por parte de Facebook.
Reuters, de hecho, asegura que que se ha solicitado nformación sobre participación de mercado, competidores, sus mayores clientes para productos específicos y documentos de otras investigaciones.
Por ejemplo, se le ha pedido a Facebook más información sobre su decisión de fusionar Messenger, WhatsApp e Instagram en un único servicio y a Apple se le ha pedido que envíe detalles sobre su política con respecto a si los usuarios de iPhone pueden configurar las aplicaciones que no son de Apple como predeterminadas.
Las declaraciones de los legisladores conservadores, principales impulsores de estas medidas, son tajantes. Jerrold Nadler, presidente del Comité Judicial de la Cámara de Representantes, ha asegurado que "cada vez hay más pruebas de que un puñado de corporaciones han llegado a capturar una parte descomunal del comercio y las comunicaciones online".
Por su parte, Doug Collins Collins, Representante Republicano, asegura lo siguiente: "Esta información es clave para ayudar a determinar si se está produciendo un comportamiento anticompetitivo, si nuestras agencias de aplicación de la ley antimonopolio deberían investigar problemas específicos y si nuestras leyes antimonopolio necesitan o no mejoras para promover mejor la competencia en los mercados digitales".
https://www.elespanol.com/omicrono/20190916/gobierno-eeuu-quiere-correos-jefes-facebook-apple/429707403_0.html
#apple #facebook #eeuu #correos
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Las investigaciones antimonopolio que se están sucediendo a las principales empresas tecnológicas podría dar un paso más allá. El gobierno de Estados Unidos pide leer los correos de los principales CEOs tecnológicos. Entre ellos se encuentran Mark Zuckerberg, CEO de Facebook o Tim Cook, CEO de Apple.
Uno de los más altos cargos del ejecutivo de Estados Unidos solicita poder revisar estos correos en el marco de una importante investigación antimonopolio que está llevando a cabo el país.
Como ya pudimos comprobar, estos correos pueden contener información sensible tanto de la persona en cuestión como de la empresa que lleva. De revelarse estos correos podríamos asistir a una importante sacudida en el sector tecnológico al revelarse sus principales acciones.
✳️ El gobierno de los EE.UU quiere acceder a correos de Facebook, Amazon o Apple
Tal y como aseguran desde TechRadar y Reuters esta solicitud proviene de un plan de la Cámara de Representantes estadounidense para buscar todavía más información sobre cómo las empresas tecnológicas principales llevan a cabo sus operaciones comerciales.
Estos legisladores buscan, entre otros, correos que hablen de adquisiciones de alto nivel como la adquisición de YouTube de YouTube y Android o la compra de WhatsApp e Instagram por parte de Facebook.
Reuters, de hecho, asegura que que se ha solicitado nformación sobre participación de mercado, competidores, sus mayores clientes para productos específicos y documentos de otras investigaciones.
Por ejemplo, se le ha pedido a Facebook más información sobre su decisión de fusionar Messenger, WhatsApp e Instagram en un único servicio y a Apple se le ha pedido que envíe detalles sobre su política con respecto a si los usuarios de iPhone pueden configurar las aplicaciones que no son de Apple como predeterminadas.
Las declaraciones de los legisladores conservadores, principales impulsores de estas medidas, son tajantes. Jerrold Nadler, presidente del Comité Judicial de la Cámara de Representantes, ha asegurado que "cada vez hay más pruebas de que un puñado de corporaciones han llegado a capturar una parte descomunal del comercio y las comunicaciones online".
Por su parte, Doug Collins Collins, Representante Republicano, asegura lo siguiente: "Esta información es clave para ayudar a determinar si se está produciendo un comportamiento anticompetitivo, si nuestras agencias de aplicación de la ley antimonopolio deberían investigar problemas específicos y si nuestras leyes antimonopolio necesitan o no mejoras para promover mejor la competencia en los mercados digitales".
https://www.elespanol.com/omicrono/20190916/gobierno-eeuu-quiere-correos-jefes-facebook-apple/429707403_0.html
#apple #facebook #eeuu #correos
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El Español
El gobierno de EE.UU quiere leer los correos de los jefes de Facebook, Apple y más
El gobierno de los EE.UU solicita correos con información. El CEO de Facebook es uno de los 'afectados'. El co-fundador de Facebook pidió dividir la empresa.
U.S Sues Edward Snowden and You'd be Surprised to Know Why
The United States today filed a lawsuit against Edward Snowden, a former employee of the CIA and NSA government agencies who made headlines worldwide in 2013 after he fled the country and leaked top-secret information about NSA’s global and domestic surveillance activities.
And, you would be more surprised to know the reason for this lawsuit.
No, it’s not for leaking secrets; instead, for publishing a book without submitting it to the agencies for pre-publication review.
In his latest book, titled "Permanent Record" and released today on September 17th, Edward Snowden for the first time revealed the story of his life, including how he helped to build that surveillance system and what motivated him to try to bring it down.
According to a press release U.S. Department of Justice just published, with the publication of his book Snowden has violated non-disclosure agreements he signed with both CIA and NSA agencies.
The lawsuit alleges that Snowden published Permanent Record without first submitting the book to the agencies for pre-publication review and also gave public speeches on intelligence-related matters, violating the agreements he signed with the agencies.
The United States government is not looking to stop or restrict the publication or distribution of Permanent Record, but instead, is seeking to recover all proceeds earned by Snowden.
"Under well-established Supreme Court precedent, Snepp v. the United States, the government seeks to recover all proceeds earned by Snowden because of his failure to submit his publication for pre-publication review in violation of his alleged contractual and fiduciary obligations," the press release reads.
Besides Snowden, the US government is also suing the publisher solely to ensure that no funds are transferred to Snowden, or any account at his direction, while the court resolves the United States' claims.
"The United States' ability to protect sensitive national security information depends on employees' and contractors' compliance with their non-disclosure agreements, including their pre-publication review obligations," said Assistant Attorney General Jody Hunt of the Department of Justice's Civil Division.
👉🏼 Read more:
https://thehackernews.com/2019/09/edward-snowden-lawsuit.html
#EdwardSnowden #CIA #NSA #lawsuit
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The United States today filed a lawsuit against Edward Snowden, a former employee of the CIA and NSA government agencies who made headlines worldwide in 2013 after he fled the country and leaked top-secret information about NSA’s global and domestic surveillance activities.
And, you would be more surprised to know the reason for this lawsuit.
No, it’s not for leaking secrets; instead, for publishing a book without submitting it to the agencies for pre-publication review.
In his latest book, titled "Permanent Record" and released today on September 17th, Edward Snowden for the first time revealed the story of his life, including how he helped to build that surveillance system and what motivated him to try to bring it down.
According to a press release U.S. Department of Justice just published, with the publication of his book Snowden has violated non-disclosure agreements he signed with both CIA and NSA agencies.
The lawsuit alleges that Snowden published Permanent Record without first submitting the book to the agencies for pre-publication review and also gave public speeches on intelligence-related matters, violating the agreements he signed with the agencies.
The United States government is not looking to stop or restrict the publication or distribution of Permanent Record, but instead, is seeking to recover all proceeds earned by Snowden.
"Under well-established Supreme Court precedent, Snepp v. the United States, the government seeks to recover all proceeds earned by Snowden because of his failure to submit his publication for pre-publication review in violation of his alleged contractual and fiduciary obligations," the press release reads.
Besides Snowden, the US government is also suing the publisher solely to ensure that no funds are transferred to Snowden, or any account at his direction, while the court resolves the United States' claims.
"The United States' ability to protect sensitive national security information depends on employees' and contractors' compliance with their non-disclosure agreements, including their pre-publication review obligations," said Assistant Attorney General Jody Hunt of the Department of Justice's Civil Division.
👉🏼 Read more:
https://thehackernews.com/2019/09/edward-snowden-lawsuit.html
#EdwardSnowden #CIA #NSA #lawsuit
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
This media is not supported in your browser
VIEW IN TELEGRAM
Ransomware: 11 steps you should take to protect against disaster
Falling victim to ransomware could put your vital business or personal data at risk of being lost forever. These steps can help bolster your defences.
Ramsomware continues to be one of the biggest menaces on the internet. Clicking on the wrong link could be enough to set off a sequence of events that ends with all your data being encrypted by crooks, who will only unlock it in return for a hefty ransom -- usually in bitcoin or another hard-to-trace cryptocurrency.
👉🏼 11 steps you should take to protect against disaster
https://www.zdnet.com/article/ransomware-11-steps-you-should-take-to-protect-against-disaster/
#ransomware #tips #tricks #video
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Falling victim to ransomware could put your vital business or personal data at risk of being lost forever. These steps can help bolster your defences.
Ramsomware continues to be one of the biggest menaces on the internet. Clicking on the wrong link could be enough to set off a sequence of events that ends with all your data being encrypted by crooks, who will only unlock it in return for a hefty ransom -- usually in bitcoin or another hard-to-trace cryptocurrency.
👉🏼 11 steps you should take to protect against disaster
https://www.zdnet.com/article/ransomware-11-steps-you-should-take-to-protect-against-disaster/
#ransomware #tips #tricks #video
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
This media is not supported in your browser
VIEW IN TELEGRAM
Annual GHG emissions in million tonnes CO2 equivalent (excluding LULUCF)
📺 https://public.flourish.studio/visualisation/645992/embed
#emissions #CO2 #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
📺 https://public.flourish.studio/visualisation/645992/embed
#emissions #CO2 #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Russian intelligence service FSB plans to block mailbox.org
According to reports of the Russian media company RBC, the Russian secret service FSB plans to request an Internet block against mailbox.org and other providers. The reason is supposed to be e-mails sent via the providers with bomb threats. As a result, websites or mailbox.org mail services from the Russian Internet may no longer be accessible in whole or in part.
According to media reports, representatives of the Russian telecommunications authority Roskomnadzor state that mailbox.org did not respond to a request for information in the second quarter of 2019 and is not listed in the Russian telecommunications directory "ARI".
Peer Heinlein, founder and CEO of mailbox.org, explains: "We are not aware of any inquiry from Roskomnadzor that we should have answered. We do not have an official letter from the authorities nor have we received a corresponding request for legal assistance from German authorities. Contrary to the statements made by representatives of Roskomnadzor, mailbox.org is not aware of any Russian court decision according to which mailbox.org would have had to release data. If there was a decision, it was never delivered to us. In this respect we are very surprised by the incident and the accusations of Roskomnadzor".
"Of course, mailbox.org would answer legitimate requests for information from authorities. However, these must also be permissible on the basis of the German and European legal situation," says Peer Heinlein. As a rule, foreign authorities would have to choose the path of a request for judicial assistance. "In no case, however, will mailbox.org illegally disclose data of its users to domestic or foreign authorities. Each request for information will always be checked for admissibility by lawyers specialising in this area in individual cases".
"Like every e-mail service, mailbox.org has to struggle with a multitude of fake account registrations on a daily basis. mailbox.org has developed very good defence methods to detect and block abusive fake accounts. We do not tolerate abuse of our service for criminal activities," says Peer Heinlein. If accounts were to be used for criminal activities, mailbox.org would of course cooperate and block them after a very precise case-by-case examination. The Anti-Abuse-Team of mailbox.org would even accept such hints with thanks.
"If a user of mailbox.org sends e-mails with the threat of a bomb attack, this must be condemned in the strongest possible terms and not tolerated," says Heinlein. Of course, mailbox.org strongly dissociates itself from such actions. If, however, a free telecommunications provider is blocked due to individual incidents and all its users are placed under general suspicion, this is exaggeratedly excessive and purely arbitrary. If this then happens without compliance with a constitutional procedure, it would not be tolerable for any democratic state.
👉🏼 Read more:
https://mailbox.org/en/post/russian-intelligence-service-fsb-plans-to-block-mailbox-org
#russia #FSB #IntelligenceService #block #mailboxorg
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
According to reports of the Russian media company RBC, the Russian secret service FSB plans to request an Internet block against mailbox.org and other providers. The reason is supposed to be e-mails sent via the providers with bomb threats. As a result, websites or mailbox.org mail services from the Russian Internet may no longer be accessible in whole or in part.
According to media reports, representatives of the Russian telecommunications authority Roskomnadzor state that mailbox.org did not respond to a request for information in the second quarter of 2019 and is not listed in the Russian telecommunications directory "ARI".
Peer Heinlein, founder and CEO of mailbox.org, explains: "We are not aware of any inquiry from Roskomnadzor that we should have answered. We do not have an official letter from the authorities nor have we received a corresponding request for legal assistance from German authorities. Contrary to the statements made by representatives of Roskomnadzor, mailbox.org is not aware of any Russian court decision according to which mailbox.org would have had to release data. If there was a decision, it was never delivered to us. In this respect we are very surprised by the incident and the accusations of Roskomnadzor".
"Of course, mailbox.org would answer legitimate requests for information from authorities. However, these must also be permissible on the basis of the German and European legal situation," says Peer Heinlein. As a rule, foreign authorities would have to choose the path of a request for judicial assistance. "In no case, however, will mailbox.org illegally disclose data of its users to domestic or foreign authorities. Each request for information will always be checked for admissibility by lawyers specialising in this area in individual cases".
"Like every e-mail service, mailbox.org has to struggle with a multitude of fake account registrations on a daily basis. mailbox.org has developed very good defence methods to detect and block abusive fake accounts. We do not tolerate abuse of our service for criminal activities," says Peer Heinlein. If accounts were to be used for criminal activities, mailbox.org would of course cooperate and block them after a very precise case-by-case examination. The Anti-Abuse-Team of mailbox.org would even accept such hints with thanks.
"If a user of mailbox.org sends e-mails with the threat of a bomb attack, this must be condemned in the strongest possible terms and not tolerated," says Heinlein. Of course, mailbox.org strongly dissociates itself from such actions. If, however, a free telecommunications provider is blocked due to individual incidents and all its users are placed under general suspicion, this is exaggeratedly excessive and purely arbitrary. If this then happens without compliance with a constitutional procedure, it would not be tolerable for any democratic state.
👉🏼 Read more:
https://mailbox.org/en/post/russian-intelligence-service-fsb-plans-to-block-mailbox-org
#russia #FSB #IntelligenceService #block #mailboxorg
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Facebook’s ‘Supreme Court’ can overrule Zuckerberg, per new charter
‘The board’s decision will be binding, even if I or anyone at Facebook disagrees with it,’ says Zuckerberg
Facebook has published new documents detailing the company’s plans for a content oversight board, which would serve as a kind of Supreme Court for the platform. In a call with reporters on Tuesday, Facebook said that it hopes to have the board fully staffed by the end of this year, and gave more details on how the board will operate and be governed.
Last November, Mark Zuckerberg penned a blog post laying out his plan to create virtually a Supreme Court for Facebook. Once it’s fully staffed, the body will be in charge of adjudicating appeals from users whose content has been removed from Facebook’s platforms. It will also make judgements on cases referred to it by the company itself.
“The board will be an advocate for our community — supporting people’s right to free expression, and making sure we fulfill our responsibility to keep people safe,” Mark Zuckerberg wrote in a blog post. “As an independent organization, we hope it gives people confidence that their views will be heard, and that Facebook doesn’t have the ultimate power over their expression.”
Facebook has pledged that the oversight body will be operational by November of next year. Today, the company laid out how members would be chosen and how they would influence moderation on the company’s platforms.
According to the charter Facebook released Tuesday, the oversight board will begin with at least 11 members and is “likely to be 40 members” when fully staffed. Each board member will serve no more than nine years, divided into three-year terms. The positions will be part-time, although the board will be served by a full-time staff to review submissions and conduct research. Members’ names and moderation decisions will also be made available in a public online database.
👉🏼 Read more:
https://www.theverge.com/2019/9/17/20870827/facebook-supreme-court-mark-zuckerberg-content-moderation-charter
#DeleteFacebook #zuck #SupremeCourt #ContentModeration
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
‘The board’s decision will be binding, even if I or anyone at Facebook disagrees with it,’ says Zuckerberg
Facebook has published new documents detailing the company’s plans for a content oversight board, which would serve as a kind of Supreme Court for the platform. In a call with reporters on Tuesday, Facebook said that it hopes to have the board fully staffed by the end of this year, and gave more details on how the board will operate and be governed.
Last November, Mark Zuckerberg penned a blog post laying out his plan to create virtually a Supreme Court for Facebook. Once it’s fully staffed, the body will be in charge of adjudicating appeals from users whose content has been removed from Facebook’s platforms. It will also make judgements on cases referred to it by the company itself.
“The board will be an advocate for our community — supporting people’s right to free expression, and making sure we fulfill our responsibility to keep people safe,” Mark Zuckerberg wrote in a blog post. “As an independent organization, we hope it gives people confidence that their views will be heard, and that Facebook doesn’t have the ultimate power over their expression.”
Facebook has pledged that the oversight body will be operational by November of next year. Today, the company laid out how members would be chosen and how they would influence moderation on the company’s platforms.
According to the charter Facebook released Tuesday, the oversight board will begin with at least 11 members and is “likely to be 40 members” when fully staffed. Each board member will serve no more than nine years, divided into three-year terms. The positions will be part-time, although the board will be served by a full-time staff to review submissions and conduct research. Members’ names and moderation decisions will also be made available in a public online database.
👉🏼 Read more:
https://www.theverge.com/2019/9/17/20870827/facebook-supreme-court-mark-zuckerberg-content-moderation-charter
#DeleteFacebook #zuck #SupremeCourt #ContentModeration
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The Global Expansion of AI Surveillance
A growing number of states are deploying advanced AI surveillance tools to monitor, track, and surveil citizens. Carnegie’s new index explores how different countries are going about this.
Executive Summary
Artificial intelligence (AI) technology is rapidly proliferating around the world. Startling developments keep emerging, from the onset of deepfake videos that blur the line between truth and falsehood, to advanced algorithms that can beat the best players in the world in multiplayer poker. Businesses harness AI capabilities to improve analytic processing; city officials tap AI to monitor traffic congestion and oversee smart energy metering. Yet a growing number of states are deploying advanced AI surveillance tools to monitor, track, and surveil citizens to accomplish a range of policy objectives—some lawful, others that violate human rights, and many of which fall into a murky middle ground.
In order to appropriately address the effects of this technology, it is important to first understand where these tools are being deployed and how they are being used. Unfortunately, such information is scarce. To provide greater clarity, this paper presents an AI Global Surveillance (AIGS) Index—representing one of the first research efforts of its kind. The index compiles empirical data on AI surveillance use for 176 countries around the world. It does not distinguish between legitimate and unlawful uses of AI surveillance. Rather, the purpose of the research is to show how new surveillance capabilities are transforming the ability of governments to monitor and track individuals or systems. It specifically asks:
💡 Which countries are adopting AI surveillance technology?
💡 What specific types of AI surveillance are governments deploying?
💡 Which countries and companies are supplying this technology?
👉🏼 Read the full report:
https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847
#ai #surveillance #monitor #track #surveil #AIGS #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
A growing number of states are deploying advanced AI surveillance tools to monitor, track, and surveil citizens. Carnegie’s new index explores how different countries are going about this.
Executive Summary
Artificial intelligence (AI) technology is rapidly proliferating around the world. Startling developments keep emerging, from the onset of deepfake videos that blur the line between truth and falsehood, to advanced algorithms that can beat the best players in the world in multiplayer poker. Businesses harness AI capabilities to improve analytic processing; city officials tap AI to monitor traffic congestion and oversee smart energy metering. Yet a growing number of states are deploying advanced AI surveillance tools to monitor, track, and surveil citizens to accomplish a range of policy objectives—some lawful, others that violate human rights, and many of which fall into a murky middle ground.
In order to appropriately address the effects of this technology, it is important to first understand where these tools are being deployed and how they are being used. Unfortunately, such information is scarce. To provide greater clarity, this paper presents an AI Global Surveillance (AIGS) Index—representing one of the first research efforts of its kind. The index compiles empirical data on AI surveillance use for 176 countries around the world. It does not distinguish between legitimate and unlawful uses of AI surveillance. Rather, the purpose of the research is to show how new surveillance capabilities are transforming the ability of governments to monitor and track individuals or systems. It specifically asks:
💡 Which countries are adopting AI surveillance technology?
💡 What specific types of AI surveillance are governments deploying?
💡 Which countries and companies are supplying this technology?
👉🏼 Read the full report:
https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847
#ai #surveillance #monitor #track #surveil #AIGS #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
This media is not supported in your browser
VIEW IN TELEGRAM
You watch TV. Your TV watches back
In our latest privacy experiment, we tracked how four of the most popular TV brands record everything we watch
Ever wondered why TV sets are getting so cheap? Manufacturing efficiency plays a role. But to paraphrase James Carville, it’s the data, stupid. TVs have joined the ranks of websites, apps and credit cards in the lucrative business of harvesting and sharing your information. Americans spend an average of 3½ hours in front of a TV each day, according to eMarketer. Your TV records may not contain sensitive search queries or financial data, but that history is a window to your interests, personality, joys and embarrassments.
👉🏼 Read more:
https://www.washingtonpost.com/technology/2019/09/18/you-watch-tv-your-tv-watches-back/
#surveillance #tv #samsung #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
In our latest privacy experiment, we tracked how four of the most popular TV brands record everything we watch
Ever wondered why TV sets are getting so cheap? Manufacturing efficiency plays a role. But to paraphrase James Carville, it’s the data, stupid. TVs have joined the ranks of websites, apps and credit cards in the lucrative business of harvesting and sharing your information. Americans spend an average of 3½ hours in front of a TV each day, according to eMarketer. Your TV records may not contain sensitive search queries or financial data, but that history is a window to your interests, personality, joys and embarrassments.
👉🏼 Read more:
https://www.washingtonpost.com/technology/2019/09/18/you-watch-tv-your-tv-watches-back/
#surveillance #tv #samsung #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Episode 362 - 9/11 Whistleblowers
The Corbett Report
9/11 Whistleblowers
“But someone would have talked,” say the self-styled skeptics who believe the government’s official #conspiracy theory of 9/11. But there’s a problem with this logically fallacious non-argument. “Someone” did talk. In fact, numerous people have come out to blow the whistle on the events of September 11, 2001, and the cover-up that surrounds those events. These are the stories of the 9/11 #Whistleblowers.
📻 https://www.corbettreport.com/episode-362-9-11-whistleblowers/
#corbettreport #whistleblowers #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
“But someone would have talked,” say the self-styled skeptics who believe the government’s official #conspiracy theory of 9/11. But there’s a problem with this logically fallacious non-argument. “Someone” did talk. In fact, numerous people have come out to blow the whistle on the events of September 11, 2001, and the cover-up that surrounds those events. These are the stories of the 9/11 #Whistleblowers.
📻 https://www.corbettreport.com/episode-362-9-11-whistleblowers/
#corbettreport #whistleblowers #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
🇪🇸 Cómo engañar al algoritmo y evitar que Facebook sepa a quién conoces.
Una nueva investigación revela un truco para confundir a una función clave de las redes sociales.
LinkedIn creó en 2006 la función "Personas que quizá conozcas". Su objetivo era razonable: a los usuarios les interesaría saber dónde trabajan sus viejos compañeros de universidad y ex colegas. Solo dos años más tarde, Facebook la copió, sin siquiera cambiarle el nombre. Poco después ya era responsable de "una parte significativa de los nuevos amigos en Facebook".
El número de amigos es clave para una red social. La gente que tiene más contactos la usa más tiempo y más a menudo. Hoy todas las grandes apps quieren engancharte con recomendaciones de más amigos, gente a quien seguir, personas que quizá conozcas o contactos de los que quieras saber la música que escuchan.
El algoritmo que busca a gente conocida es uno de los secretos mejor refinados de una red social. Pero también es el germen de grandes líos para muchos usuarios: allí le ha aparecido al marido el amante de la mujer, al paciente de una psiquiatra otros pacientes, a la trabajadora sexual con doble vida sus clientes más pasionales. No solo eso: a través de nuestros amigos una red puede saber nuestras creencias, orientación sexual o gustos. Ni siquiera es necesario que uno sea miembro de esa red social. Solo con aparecer en las redes de otros miembros puede ser suficiente.
A pesar de las quejas de privacidad y los problemas humanos que ha generado, las grandes empresas no ceden. Podrían retocar el algoritmo para que no fuera tan fino. Pero no: ahí está un nuevo compañero de trabajo días después de haber empezado, el conocido que hacía años que no veíamos y se nos cruzó el otro día o el médico que nos ha atendido.
Ahora llega una investigación, publicada por Nature, que es el primer recurso de una posible futura caja de herramientas para que los humanos sepamos responder y engañar a los algoritmos: "Es lo que en redes neuronales se llama un ataque adversario", dice Esteban Moro, investigador del MIT Media Lab y de la Universidad Carlos III, y uno de los autores junto a profesores de la Universidad de Varsovia, NYU Abu Dabi y Washington State en Saint Louis. "Es un ataque para que el algoritmo falle más a la hora de recomendar a gente", añade.
¿Qué debemos hacer para crear uno de esos ataques? Borrar de tu lista de amigos a cinco personas clave. "Esos eslabones clave son los que están en la mayoría de los triángulos de tu vida. Puede hacerse una clasificación de cuáles de tus relaciones están en más triángulos. Si quitas las cinco primeras, el resto de relaciones quedan bastante perjudicadas", explica Moro. Y el algoritmo será menos eficaz.
Si por tanto cada cual elimina a las cinco personas más importantes de entre sus conexiones, el algoritmo perderá parte de su fiabilidad. No es evidentemente un remedio perfecto. Primero, el algoritmo seguirá intentando acertar a gente más o menos próxima. Y segundo, ¿qué cinco amigos son los más importantes? ¿Y si es mi jefa? ¿Quién quiere ganar privacidad a cambio de borrar a su jefa en LinkedIn? ¿O dejar de ver las actualizaciones de su pareja? ¿O ver qué dice esa persona tan influyente en su ámbito de interés?
"Hemos visto que tenemos que borrar aquellas relaciones con las que compartimos más amigos en común. Suena mal porque deberías borrar alguna relación con alguien con quien te llevas muy bien. La idea no es que dejes de ser amigo de esa persona, sino que dejes de demostrarlo. Eso haría que esas relaciones que el algoritmo puede detectar mediante esos amigos comunes sean más difíciles de encontrar", dice Moro.
Un motor clave
En 2008 en Facebook había unos 100 millones de personas. Ahora hay más de 2.000 millones. Ese "personas que quizá conozcas" ha sido uno de los grandes motores del crecimiento. En el post de 2008 en que Facebook anunció la función, el motivo era simple: esto te ayudará a saber qué amigos ya tienen Facebook.
Una nueva investigación revela un truco para confundir a una función clave de las redes sociales.
LinkedIn creó en 2006 la función "Personas que quizá conozcas". Su objetivo era razonable: a los usuarios les interesaría saber dónde trabajan sus viejos compañeros de universidad y ex colegas. Solo dos años más tarde, Facebook la copió, sin siquiera cambiarle el nombre. Poco después ya era responsable de "una parte significativa de los nuevos amigos en Facebook".
El número de amigos es clave para una red social. La gente que tiene más contactos la usa más tiempo y más a menudo. Hoy todas las grandes apps quieren engancharte con recomendaciones de más amigos, gente a quien seguir, personas que quizá conozcas o contactos de los que quieras saber la música que escuchan.
El algoritmo que busca a gente conocida es uno de los secretos mejor refinados de una red social. Pero también es el germen de grandes líos para muchos usuarios: allí le ha aparecido al marido el amante de la mujer, al paciente de una psiquiatra otros pacientes, a la trabajadora sexual con doble vida sus clientes más pasionales. No solo eso: a través de nuestros amigos una red puede saber nuestras creencias, orientación sexual o gustos. Ni siquiera es necesario que uno sea miembro de esa red social. Solo con aparecer en las redes de otros miembros puede ser suficiente.
A pesar de las quejas de privacidad y los problemas humanos que ha generado, las grandes empresas no ceden. Podrían retocar el algoritmo para que no fuera tan fino. Pero no: ahí está un nuevo compañero de trabajo días después de haber empezado, el conocido que hacía años que no veíamos y se nos cruzó el otro día o el médico que nos ha atendido.
Ahora llega una investigación, publicada por Nature, que es el primer recurso de una posible futura caja de herramientas para que los humanos sepamos responder y engañar a los algoritmos: "Es lo que en redes neuronales se llama un ataque adversario", dice Esteban Moro, investigador del MIT Media Lab y de la Universidad Carlos III, y uno de los autores junto a profesores de la Universidad de Varsovia, NYU Abu Dabi y Washington State en Saint Louis. "Es un ataque para que el algoritmo falle más a la hora de recomendar a gente", añade.
¿Qué debemos hacer para crear uno de esos ataques? Borrar de tu lista de amigos a cinco personas clave. "Esos eslabones clave son los que están en la mayoría de los triángulos de tu vida. Puede hacerse una clasificación de cuáles de tus relaciones están en más triángulos. Si quitas las cinco primeras, el resto de relaciones quedan bastante perjudicadas", explica Moro. Y el algoritmo será menos eficaz.
Si por tanto cada cual elimina a las cinco personas más importantes de entre sus conexiones, el algoritmo perderá parte de su fiabilidad. No es evidentemente un remedio perfecto. Primero, el algoritmo seguirá intentando acertar a gente más o menos próxima. Y segundo, ¿qué cinco amigos son los más importantes? ¿Y si es mi jefa? ¿Quién quiere ganar privacidad a cambio de borrar a su jefa en LinkedIn? ¿O dejar de ver las actualizaciones de su pareja? ¿O ver qué dice esa persona tan influyente en su ámbito de interés?
"Hemos visto que tenemos que borrar aquellas relaciones con las que compartimos más amigos en común. Suena mal porque deberías borrar alguna relación con alguien con quien te llevas muy bien. La idea no es que dejes de ser amigo de esa persona, sino que dejes de demostrarlo. Eso haría que esas relaciones que el algoritmo puede detectar mediante esos amigos comunes sean más difíciles de encontrar", dice Moro.
Un motor clave
En 2008 en Facebook había unos 100 millones de personas. Ahora hay más de 2.000 millones. Ese "personas que quizá conozcas" ha sido uno de los grandes motores del crecimiento. En el post de 2008 en que Facebook anunció la función, el motivo era simple: esto te ayudará a saber qué amigos ya tienen Facebook.
El modo más sencillo del algoritmo es establecer conexiones con la lista de los contactos de cada usuario: "Si Jaime conoce a Jorge y Jorge conoce a Ana, es probable que Jaime conozca a Ana". Cuando esos triángulos entre dos amigos se entrelazan mucho, la amistad es más probable. El algoritmo de recomendación no se alimenta solo de los contactos –aunque es el principal. Las redes no dan detalles, pero a veces parecen salir "amigos" de viejos emails o mensajes.
Aunque en la salsa hay mucho más: "Los algoritmos de recomendación de amigos tienen muchos componentes. La estructural es la más importante. El 60% de recomendación de amigos vienes de con quién te relacionas. Otra grande son los gustos. Estas dos las más importantes. Más del 80% del algoritmo", dice Moro.
Este ataque adversario puede ser un beneficio personal, pero para que mejore nuestra relación general con los algoritmos le falta algo más: "Me recuerda a las pegatinas que se ponen activistas en la cara para distraer los mecanismos de reconocimiento facial. Puede engañar a la máquina, por lo menos hasta que la adapten con otros datos o métodos", dice David García, investigador en el Complexity Science Hub de Viena (Austria).
La información que dejan nuestros amigos es también importante para nuestro perfil: "Hay mucha información que está fuera de nuestro control. Con los 'perfiles en la sombra' un individuo tiene control nulo para eliminar contactos porque no está en la red social. La información es la que comparten nuestros amigos. Ahí estas herramientas no funcionarían por el hecho de que la privacidad en nuestra sociedad digital es un fenómeno complejo que se escapa del control que tiene un individuo sobre sus datos", explica García.
Necesitaríamos, añade García, que fuera algo masivo, como una vacuna que se inyecta al 90% de la sociedad para que a las redes les cueste más saber mucho de todos.
✳️ Un primer paso.
Pero como primer paso tentativo y personal es atractiva. Los investigadores hicieron su experimento a partir de una base de datos de 829.725 llamadas entre 248.763 individuos. La cifra de 5 amigos que deberían desaparecer para eliminar conexiones sale a partir de unas redes que forman 30-40 amigos. Es probable que esas 5 amistades aumentaran en redes sociales reales con cientos de amistades.
Pero el método sería el mismo: elimina los eslabones clave de tu vida y añade ruido. "Es nuestra primera caja de herramientas para maximizar la privacidad. Cada uno de nosotros podríamos tener una serie de herramientas para ver cómo engañamos a los algoritmos de las redes sociales. No solo al de amigos, también al de recomendación de productos, al de publicidad", dice Moro.
Esta línea de investigación acaba de empezar. Algunos de los siguientes pasos son comprobar el valor de eliminar individuos cercanos para cada usuario y crear una herramienta para que cada cual pueda ver quiénes son los amigos que debería de eliminar: "Nos gustaría hacer una herramienta para enseñar a la gente cómo funciona el algoritmo en su red social y qué nodos debería borrar para que el algoritmo se confundiera más", explica Moro.
La literatura académica ya ha creado modos para que estos algoritmos funcionen peor. Pero deben aplicarlos las mismas redes sociales, que son quienes ven todos los datos. Por ahora no parecen tan interesadas en esta vía de proteger la privacidad de sus usuarios.
https://elpais.com/tecnologia/2019/09/15/actualidad/1568581883_618003.html
#facebook #privacidad #rastreo
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Aunque en la salsa hay mucho más: "Los algoritmos de recomendación de amigos tienen muchos componentes. La estructural es la más importante. El 60% de recomendación de amigos vienes de con quién te relacionas. Otra grande son los gustos. Estas dos las más importantes. Más del 80% del algoritmo", dice Moro.
Este ataque adversario puede ser un beneficio personal, pero para que mejore nuestra relación general con los algoritmos le falta algo más: "Me recuerda a las pegatinas que se ponen activistas en la cara para distraer los mecanismos de reconocimiento facial. Puede engañar a la máquina, por lo menos hasta que la adapten con otros datos o métodos", dice David García, investigador en el Complexity Science Hub de Viena (Austria).
La información que dejan nuestros amigos es también importante para nuestro perfil: "Hay mucha información que está fuera de nuestro control. Con los 'perfiles en la sombra' un individuo tiene control nulo para eliminar contactos porque no está en la red social. La información es la que comparten nuestros amigos. Ahí estas herramientas no funcionarían por el hecho de que la privacidad en nuestra sociedad digital es un fenómeno complejo que se escapa del control que tiene un individuo sobre sus datos", explica García.
Necesitaríamos, añade García, que fuera algo masivo, como una vacuna que se inyecta al 90% de la sociedad para que a las redes les cueste más saber mucho de todos.
✳️ Un primer paso.
Pero como primer paso tentativo y personal es atractiva. Los investigadores hicieron su experimento a partir de una base de datos de 829.725 llamadas entre 248.763 individuos. La cifra de 5 amigos que deberían desaparecer para eliminar conexiones sale a partir de unas redes que forman 30-40 amigos. Es probable que esas 5 amistades aumentaran en redes sociales reales con cientos de amistades.
Pero el método sería el mismo: elimina los eslabones clave de tu vida y añade ruido. "Es nuestra primera caja de herramientas para maximizar la privacidad. Cada uno de nosotros podríamos tener una serie de herramientas para ver cómo engañamos a los algoritmos de las redes sociales. No solo al de amigos, también al de recomendación de productos, al de publicidad", dice Moro.
Esta línea de investigación acaba de empezar. Algunos de los siguientes pasos son comprobar el valor de eliminar individuos cercanos para cada usuario y crear una herramienta para que cada cual pueda ver quiénes son los amigos que debería de eliminar: "Nos gustaría hacer una herramienta para enseñar a la gente cómo funciona el algoritmo en su red social y qué nodos debería borrar para que el algoritmo se confundiera más", explica Moro.
La literatura académica ya ha creado modos para que estos algoritmos funcionen peor. Pero deben aplicarlos las mismas redes sociales, que son quienes ven todos los datos. Por ahora no parecen tan interesadas en esta vía de proteger la privacidad de sus usuarios.
https://elpais.com/tecnologia/2019/09/15/actualidad/1568581883_618003.html
#facebook #privacidad #rastreo
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El País
Cómo engañar al algoritmo y evitar que Facebook sepa a quién conoces
Una nueva investigación revela un truco para confundir a una función clave de las redes sociales
🇪🇸 El reconocimiento facial podría prohibirse cambiando nuestro uso de la tecnología.
El reconocimiento facial es una tecnología que no ha estado exenta de polémica. La llevamos en nuestro día a día prácticamente, en smartphones, ordenadores, etcétera. Hay quién dice que es una tecnología vital para el futuro y quienes aseguran que podría comprometer gravemente nuestra privacidad.
Algunos de los usos de este reconocimiento facial han sido prohibidos en varios estados de Estados Unidos, y ahora una asesora de políticas de Inteligencia Artificial, Mutale Nkonde, esto se podría extender a más estados llegando incluso a prohibirse del todo, tal y como asegura MIT Technology Review.
Según Nkonde podríamos llegar a ver prohibiciones en algunos de sus usos en determinados estados, pero también podríamos ver una prohibición a nivel federal de sus principales características. Y esto cambiaría nuestrra relación con la tecnología.
✳️ El reconocimiento facial podría prohibirse en Estados Unidos (o al menos en parte).
Según ha predicho Nkonde, no está claro qué prohibiciones sufrirá el reconocimiento facial, y sobre todo, cuáles de sus usos se verán limitados. El ejemplo claro está en Portland; dicha zona quiere restringir el uso del reconocimiento facial en el sector privado, mientras que los primeros 'baneos' se han centrado en la policía. Algunas ciudades de Estados Unidos han prohibido el uso de este reconocimiento en cuerpos policiales.
El debate no se limita a Estados Unidos; en Reino Unido se reavivó el debate del uso del reconocimiento después de que se descubriera que un promotor inmobiliariohabía estado recopilando imágenes de los rostros de personas en un área de Londres durante dos años sin informarles. Lo preocupante es que el cómo se usaron estos datos aún no se sabe. En palabras de Nkonde:
"Habrá desafíos legales, y eventualmente habrá regulación. Un derecho constitucional que tenemos es inocente hasta que se pruebe su culpabilidad. El reconocimiento facial podría cambiar esa idea".
Nkonde señaló un ejemplo muy claro de cómo el uso del reconocimiento facial intercede directamente con nuestra vida privada; los ciudadanos neoyorkinos se enfrentaron a un plan que pretendía instalar sistemas de reconocimiento facial en diversos apartamentos para sustituir a la llave. Casualmente, este despliegue afectó principalmente a mujeres de color o mujeres pobres.
No fue hasta que los ciudadanos metieron en el caso abogados de derechos humanos. Nkonde asegura que "la marginación de los grupos minoritarios por reconocimiento facial es el primer paso [hacia una prohibición]. Cuando se usa para atacar a grupos con más poder, será ilegal".
✳️ Los usuarios lo notaríamos.
El reconocimiento facial, por mucho que suene a ciencia ficción, es una tecnología ya instaurada en nuestra sociedad. Tu smartphone tiene tecnologías de reconocimiento facial, tu portátil con Windows Hello también, tu iPad y además hay países que la han adoptado de forma más o menos cuestionable, como China. Sin ir más lejos, aquí podemos ver cómo en China usan reconocimiento facial para mostrar información de tu viaje.
Una prohibición a mayor escala por parte de los Estados Unidos afectaría indudablemente a Europa y a más países; podría haber un efecto dominó en la zona europea que instara a otros países a seguir sus pasos y a prohibir usos del reconocimiento facial (o incluso su totalidad). En ese caso tendríamos que cambiar nuestro uso de la tecnología, cambiando algunos hábitos tecnológicos que ya tenemos más que asumidos y replantearnos la implicación en nuestra privacidad que suponen esta clase de tecnologías.
Según Nkonde, "esta no sería la primera vez que una sociedad examina una nueva tecnología y decide no usarla".
https://www.elespanol.com/omicrono/20190919/reconocimiento-facial-podria-prohibirse-cambiando-uso-tecnologia/430457021_0.html
#privacidad #reconocimiento #facial #eeuu
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El reconocimiento facial es una tecnología que no ha estado exenta de polémica. La llevamos en nuestro día a día prácticamente, en smartphones, ordenadores, etcétera. Hay quién dice que es una tecnología vital para el futuro y quienes aseguran que podría comprometer gravemente nuestra privacidad.
Algunos de los usos de este reconocimiento facial han sido prohibidos en varios estados de Estados Unidos, y ahora una asesora de políticas de Inteligencia Artificial, Mutale Nkonde, esto se podría extender a más estados llegando incluso a prohibirse del todo, tal y como asegura MIT Technology Review.
Según Nkonde podríamos llegar a ver prohibiciones en algunos de sus usos en determinados estados, pero también podríamos ver una prohibición a nivel federal de sus principales características. Y esto cambiaría nuestrra relación con la tecnología.
✳️ El reconocimiento facial podría prohibirse en Estados Unidos (o al menos en parte).
Según ha predicho Nkonde, no está claro qué prohibiciones sufrirá el reconocimiento facial, y sobre todo, cuáles de sus usos se verán limitados. El ejemplo claro está en Portland; dicha zona quiere restringir el uso del reconocimiento facial en el sector privado, mientras que los primeros 'baneos' se han centrado en la policía. Algunas ciudades de Estados Unidos han prohibido el uso de este reconocimiento en cuerpos policiales.
El debate no se limita a Estados Unidos; en Reino Unido se reavivó el debate del uso del reconocimiento después de que se descubriera que un promotor inmobiliariohabía estado recopilando imágenes de los rostros de personas en un área de Londres durante dos años sin informarles. Lo preocupante es que el cómo se usaron estos datos aún no se sabe. En palabras de Nkonde:
"Habrá desafíos legales, y eventualmente habrá regulación. Un derecho constitucional que tenemos es inocente hasta que se pruebe su culpabilidad. El reconocimiento facial podría cambiar esa idea".
Nkonde señaló un ejemplo muy claro de cómo el uso del reconocimiento facial intercede directamente con nuestra vida privada; los ciudadanos neoyorkinos se enfrentaron a un plan que pretendía instalar sistemas de reconocimiento facial en diversos apartamentos para sustituir a la llave. Casualmente, este despliegue afectó principalmente a mujeres de color o mujeres pobres.
No fue hasta que los ciudadanos metieron en el caso abogados de derechos humanos. Nkonde asegura que "la marginación de los grupos minoritarios por reconocimiento facial es el primer paso [hacia una prohibición]. Cuando se usa para atacar a grupos con más poder, será ilegal".
✳️ Los usuarios lo notaríamos.
El reconocimiento facial, por mucho que suene a ciencia ficción, es una tecnología ya instaurada en nuestra sociedad. Tu smartphone tiene tecnologías de reconocimiento facial, tu portátil con Windows Hello también, tu iPad y además hay países que la han adoptado de forma más o menos cuestionable, como China. Sin ir más lejos, aquí podemos ver cómo en China usan reconocimiento facial para mostrar información de tu viaje.
Una prohibición a mayor escala por parte de los Estados Unidos afectaría indudablemente a Europa y a más países; podría haber un efecto dominó en la zona europea que instara a otros países a seguir sus pasos y a prohibir usos del reconocimiento facial (o incluso su totalidad). En ese caso tendríamos que cambiar nuestro uso de la tecnología, cambiando algunos hábitos tecnológicos que ya tenemos más que asumidos y replantearnos la implicación en nuestra privacidad que suponen esta clase de tecnologías.
Según Nkonde, "esta no sería la primera vez que una sociedad examina una nueva tecnología y decide no usarla".
https://www.elespanol.com/omicrono/20190919/reconocimiento-facial-podria-prohibirse-cambiando-uso-tecnologia/430457021_0.html
#privacidad #reconocimiento #facial #eeuu
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El Español
El reconocimiento facial podría prohibirse cambiando nuestro uso de la tecnología
El reconocimiento facial podría prohibirse en EE.UU. Ya se están prohibiendo sus usos en algunos estados. ZAO, la app que se queda con tu cara.
DeepPrivacy: A Generative Adversarial Network for Face Anonymization
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
👉🏼 PDF:
https://arxiv.org/pdf/1909.04538.pdf
👉🏼 GitHub:
https://github.com/hukkelas/DeepPrivacy
👉🏼 Story on Motherboard:
https://www.vice.com/en_us/article/ne87pg/deepprivacy-fake-face-anonymized-algorithm
#DeepPrivacy #privacy #anonymization #research #study #pdf
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
👉🏼 PDF:
https://arxiv.org/pdf/1909.04538.pdf
👉🏼 GitHub:
https://github.com/hukkelas/DeepPrivacy
👉🏼 Story on Motherboard:
https://www.vice.com/en_us/article/ne87pg/deepprivacy-fake-face-anonymized-algorithm
#DeepPrivacy #privacy #anonymization #research #study #pdf
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Ep 47: Project Raven
Project Raven
This is the story about an ex-NSA agent who went to work for a secret hacking group in the UAE.
👉🏼 Story:
https://www.reuters.com/investigates/special-report/usa-spying-raven/
📻 Podcast:
https://darknetdiaries.com/episode/47/
#darknetdiaries #NSA #UAE #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
This is the story about an ex-NSA agent who went to work for a secret hacking group in the UAE.
👉🏼 Story:
https://www.reuters.com/investigates/special-report/usa-spying-raven/
📻 Podcast:
https://darknetdiaries.com/episode/47/
#darknetdiaries #NSA #UAE #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Police can access suspects’ Facebook and WhatsApp messages in deal with US
WhatsApp, Facebook and other social media platforms will be forced to disclose encrypted messages from suspected terrorists, paedophiles and other serious criminals under a new treaty between the UK and the US.
Priti Patel, home secretary, will sign an agreement next month that compels US social media companies to hand over information to the police, security services and prosecutors. The data access agreement, which marks the culmination of four years of intense lobbying by the UK, is seen by Downing Street as an essential tool in the fight against terrorism and sexual abuse.
Ms Patel has previously warned social media companies that they risk empowering terrorists and urged them to take greater responsibility for criminal activity on their platforms. At present the security services are only able to obtain data if there is a need for an “emergency disclosure” due to an imminent threat to life. The police and prosecutors can also request data under the “mutual legal assistance” treaty but the process is highly bureaucratic and can take up to two years.
Under the new treaty, the police, prosecutors and the security services can submit requests for information to a judge, magistrate or “other independent authority”. The process will be overseen by the investigatory powers commissioner.
The UK has agreed it will not target people in the US and the US has agreed not to target people in the UK. The government is “confident” that the arrangement will comply with data protection regulations. Britain has also secured a guarantee that any information secured by the US from British companies cannot be used as evidence in cases that attract the death penalty, without the UK’s permission.
Last year Facebook was criticised by police investigating the murder of 13-year-old Lucy McHugh for refusing to release messages sent by Stephen Nicholson, the main suspect. After applying through the US courts for access to his account, prosecutors only received a log of his Facebook contacts with Lucy but not the content of any messages. It finally arrived the day that the trial started and Nicholson was convicted.
David Davis, the former Brexit secretary and a prominent campaigner on privacy issues, cautioned against the new powers. “The simple truth is that I’m afraid the US has a habit of using to the maximum extraterritorial laws to promote its own causes,” he said.
However, Richard Walton, a former head of counterterrorism at the Metropolitan Police, said: “US tech giants have been inadvertently putting a veil over serious criminality and terrorism. It has tilted the balance in favour of criminals and terrorists. This is very welcome, it will make a big difference.”
👉🏼 Read more (paywall)
https://www.thetimes.co.uk/article/police-can-access-suspects-facebook-and-whatsapp-messages-in-deal-with-us-q7lrfmchz
#UK #USA #Police #DeleteWhatsapp #DeleteFacebook
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
WhatsApp, Facebook and other social media platforms will be forced to disclose encrypted messages from suspected terrorists, paedophiles and other serious criminals under a new treaty between the UK and the US.
Priti Patel, home secretary, will sign an agreement next month that compels US social media companies to hand over information to the police, security services and prosecutors. The data access agreement, which marks the culmination of four years of intense lobbying by the UK, is seen by Downing Street as an essential tool in the fight against terrorism and sexual abuse.
Ms Patel has previously warned social media companies that they risk empowering terrorists and urged them to take greater responsibility for criminal activity on their platforms. At present the security services are only able to obtain data if there is a need for an “emergency disclosure” due to an imminent threat to life. The police and prosecutors can also request data under the “mutual legal assistance” treaty but the process is highly bureaucratic and can take up to two years.
Under the new treaty, the police, prosecutors and the security services can submit requests for information to a judge, magistrate or “other independent authority”. The process will be overseen by the investigatory powers commissioner.
The UK has agreed it will not target people in the US and the US has agreed not to target people in the UK. The government is “confident” that the arrangement will comply with data protection regulations. Britain has also secured a guarantee that any information secured by the US from British companies cannot be used as evidence in cases that attract the death penalty, without the UK’s permission.
Last year Facebook was criticised by police investigating the murder of 13-year-old Lucy McHugh for refusing to release messages sent by Stephen Nicholson, the main suspect. After applying through the US courts for access to his account, prosecutors only received a log of his Facebook contacts with Lucy but not the content of any messages. It finally arrived the day that the trial started and Nicholson was convicted.
David Davis, the former Brexit secretary and a prominent campaigner on privacy issues, cautioned against the new powers. “The simple truth is that I’m afraid the US has a habit of using to the maximum extraterritorial laws to promote its own causes,” he said.
However, Richard Walton, a former head of counterterrorism at the Metropolitan Police, said: “US tech giants have been inadvertently putting a veil over serious criminality and terrorism. It has tilted the balance in favour of criminals and terrorists. This is very welcome, it will make a big difference.”
👉🏼 Read more (paywall)
https://www.thetimes.co.uk/article/police-can-access-suspects-facebook-and-whatsapp-messages-in-deal-with-us-q7lrfmchz
#UK #USA #Police #DeleteWhatsapp #DeleteFacebook
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
🇪🇸 Whatsapp y otras apps tendrán "puertas traseras" en el Reino Unido para descifrar mensajes
Hoy en día, cualquier app de mensajería que se precie implementa algún tipo de protección en nuestros mensajes.
El cifrado punto a punto (o extremo a extremo) se ha generalizado en los últimos años; consiste en cifrar los mensajes y que estos permanezcan cifrados durante toda la comunicación, hasta que lleguen a su destinatario. De esta manera, ni siquiera los creadores de la app pueden leer el mensaje.
El cifrado punto a punto no es perfecto, pero sí que es mucho mejor que alternativas como el "cifrado en tránsito", en el que el servidor de la compañía sí puede descifrar y leer nuestros mensajes.
Este tipo de protección ha sido muy solicitada por los usuarios, pero para los gobiernos y servicios de inteligencia de todo el mundo es un quebradero de cabeza. Los dos gobiernos más contrarios al cifrado punto a punto han sido el del Reino Unido y el de los EEUU, y ya han dado pasos para prohibirlo o, al menos, limitar su eficacia.
La excusa usada por estos gobiernos es la misma: la seguridad. En concreto, denuncian que apps como Whatsapp o Telegram están siendo usadas por terroristas y criminales para organizarse; también se habla de redes de pedofilia creadas en estas plataformas.
Desde hace años, el gobierno británico ha presionado a las desarrolladores para obtener acceso a las llamadas "puertas traseras", métodos para saltarse el cifrado de los mensajes. Estas puertas pueden ser, por ejemplo, el acceso a una clave maestra de cifrado, capaz de descifrar cualquier mensaje, o acceso a la tecnología usada para cifrar el texto.
Las iniciativas del gobierno británico han sido duramente criticadas por expertos de seguridad de la industria. Ni que decir tiene que la mera existencia de estas puertas traseras haría inútil cualquier método de protección; sería exactamente lo mismo que no tener ningún tipo de cifrado. Desde el mismo momento en el que un mensaje se puede descifrar, esa comunicación ya no es segura.
Ahora el gobierno británico se ha encontrado con un gran aliado en su lucha contra el cifrado: EEUU. La administración Trump se ha mostrado en contra del cifrado extremo a extremo, e incluso se estaría planteando prohibirlo completamente.
Según adelanta Bloomberg, un nuevo acuerdo entre EEUU y el Reino Unido obligaría a apps de mensajería y redes sociales a aportar esa "puerta trasera" a la policía británica. El acuerdo, que se finalizaría en octubre, afectaría a Facebook, Whatsapp y otras apps similares.
El texto incluye algunas excepciones, destinadas a protegerse mutuamente. Por ejemplo, ambos gobiernos se comprometen a no usar estas puertas traseras para investigar a usuarios del otro país.
Además, inicialmente las apps sólo estarán obligadas a aportar información en casos de "crímenes graves", como terrorismo o pedofilia. Sin embargo, ya se habla de que el acuerdo abriría una "Caja de Pandora", y que en el futuro se puedan obtener mensajes que no estén relacionados con crímenes graves.
https://www.elespanol.com/omicrono/software/20190929/whatsapp-puertas-traseras-reino-unido-descifrar-mensajes/432956770_0.html
#uk #privacidad #mensajeria
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Hoy en día, cualquier app de mensajería que se precie implementa algún tipo de protección en nuestros mensajes.
El cifrado punto a punto (o extremo a extremo) se ha generalizado en los últimos años; consiste en cifrar los mensajes y que estos permanezcan cifrados durante toda la comunicación, hasta que lleguen a su destinatario. De esta manera, ni siquiera los creadores de la app pueden leer el mensaje.
El cifrado punto a punto no es perfecto, pero sí que es mucho mejor que alternativas como el "cifrado en tránsito", en el que el servidor de la compañía sí puede descifrar y leer nuestros mensajes.
Este tipo de protección ha sido muy solicitada por los usuarios, pero para los gobiernos y servicios de inteligencia de todo el mundo es un quebradero de cabeza. Los dos gobiernos más contrarios al cifrado punto a punto han sido el del Reino Unido y el de los EEUU, y ya han dado pasos para prohibirlo o, al menos, limitar su eficacia.
La excusa usada por estos gobiernos es la misma: la seguridad. En concreto, denuncian que apps como Whatsapp o Telegram están siendo usadas por terroristas y criminales para organizarse; también se habla de redes de pedofilia creadas en estas plataformas.
Desde hace años, el gobierno británico ha presionado a las desarrolladores para obtener acceso a las llamadas "puertas traseras", métodos para saltarse el cifrado de los mensajes. Estas puertas pueden ser, por ejemplo, el acceso a una clave maestra de cifrado, capaz de descifrar cualquier mensaje, o acceso a la tecnología usada para cifrar el texto.
Las iniciativas del gobierno británico han sido duramente criticadas por expertos de seguridad de la industria. Ni que decir tiene que la mera existencia de estas puertas traseras haría inútil cualquier método de protección; sería exactamente lo mismo que no tener ningún tipo de cifrado. Desde el mismo momento en el que un mensaje se puede descifrar, esa comunicación ya no es segura.
Ahora el gobierno británico se ha encontrado con un gran aliado en su lucha contra el cifrado: EEUU. La administración Trump se ha mostrado en contra del cifrado extremo a extremo, e incluso se estaría planteando prohibirlo completamente.
Según adelanta Bloomberg, un nuevo acuerdo entre EEUU y el Reino Unido obligaría a apps de mensajería y redes sociales a aportar esa "puerta trasera" a la policía británica. El acuerdo, que se finalizaría en octubre, afectaría a Facebook, Whatsapp y otras apps similares.
El texto incluye algunas excepciones, destinadas a protegerse mutuamente. Por ejemplo, ambos gobiernos se comprometen a no usar estas puertas traseras para investigar a usuarios del otro país.
Además, inicialmente las apps sólo estarán obligadas a aportar información en casos de "crímenes graves", como terrorismo o pedofilia. Sin embargo, ya se habla de que el acuerdo abriría una "Caja de Pandora", y que en el futuro se puedan obtener mensajes que no estén relacionados con crímenes graves.
https://www.elespanol.com/omicrono/software/20190929/whatsapp-puertas-traseras-reino-unido-descifrar-mensajes/432956770_0.html
#uk #privacidad #mensajeria
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El Español
Whatsapp y otras apps tendrán "puertas traseras" en el Reino Unido para descifrar mensajes
El acuerdo de puertas traseras permite descifrar mensajes protegidos en el servicio. EEUU y Reino Unido coinciden en luchar contra el cifrado. Australia estrenó una ley similar.