8Chan Refugees Blow Their Anonymity
An unofficial new version of the hate-filled forum isn’t as anonymous as its users might hope.
Refugees from the anonymous 8chan forum are flooding into a new censorship-resistant home on the dark web, and inadvertently giving up their anonymity along the way.
A reincarnated version of the hate-filled forum, now linked to three mass shootings, appeared Monday when the original 8chan lost its hosting service. The new site, called 08chan (with a leading zero), has no affiliation with the original and it’s not entirely clear who set it up, but 8chan’s diaspora have been flooding in as word of the site spreads through right-wing social media.
The distinguishing feature of the new site is that it lives on ZeroNet, a peer-to-peer network designed by information activists to allow for uncensorable websites immune from government or corporate intervention. Instead of relying on a central server, a ZeroNet site is hosted in bits and pieces by everyone browsing it, making it virtually impossible to shut down.
“Hard as they try, they will never stop us,” enthused one poster to the white supremacist “/pol/” board on 08chan. “We are smarter and more innovative.”
“The old 8chan site may be ashes, but this is the phoenix egg buried beneath,” another wrote.
There’s just one catch. Peer-to-peer networks expose a user’s internet address to anyone who cares to look. That’s how copyright lawyers catch people trading movies, music and software, and it’s how police and FBI agents arrest pedophiles trading child porn online.
ZeroNet works the same way, a fact that’s been much-discussed on the new site. For that reason, ZeroNet integrates tightly with Tor, an anonymity system that places layers of cut-out addresses between a user and the websites they visit. But only 41 percent of 08chan’s users’ are using Tor, based on our analysis of the peer-to-peer traffic at the site.
Users on 08chan have been complaining that the site is buggy and slow over Tor, and the site’s own administrator initially encouraged anons to just connect directly. “Feel free to post without Tor,” he wrote in a welcome message. “Even as the admin I have no power to identify anyone.”
👉🏼 Read more:
https://www.thedailybeast.com/8chan-users-migrating-to-zeronet-are-accidentally-revealing-their-locations
👉🏼 Read as well:
https://habd.as/post/securely-access-08chan-zeronet/
#8chan #08chan #ZeroNet #anonymity
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
An unofficial new version of the hate-filled forum isn’t as anonymous as its users might hope.
Refugees from the anonymous 8chan forum are flooding into a new censorship-resistant home on the dark web, and inadvertently giving up their anonymity along the way.
A reincarnated version of the hate-filled forum, now linked to three mass shootings, appeared Monday when the original 8chan lost its hosting service. The new site, called 08chan (with a leading zero), has no affiliation with the original and it’s not entirely clear who set it up, but 8chan’s diaspora have been flooding in as word of the site spreads through right-wing social media.
The distinguishing feature of the new site is that it lives on ZeroNet, a peer-to-peer network designed by information activists to allow for uncensorable websites immune from government or corporate intervention. Instead of relying on a central server, a ZeroNet site is hosted in bits and pieces by everyone browsing it, making it virtually impossible to shut down.
“Hard as they try, they will never stop us,” enthused one poster to the white supremacist “/pol/” board on 08chan. “We are smarter and more innovative.”
“The old 8chan site may be ashes, but this is the phoenix egg buried beneath,” another wrote.
There’s just one catch. Peer-to-peer networks expose a user’s internet address to anyone who cares to look. That’s how copyright lawyers catch people trading movies, music and software, and it’s how police and FBI agents arrest pedophiles trading child porn online.
ZeroNet works the same way, a fact that’s been much-discussed on the new site. For that reason, ZeroNet integrates tightly with Tor, an anonymity system that places layers of cut-out addresses between a user and the websites they visit. But only 41 percent of 08chan’s users’ are using Tor, based on our analysis of the peer-to-peer traffic at the site.
Users on 08chan have been complaining that the site is buggy and slow over Tor, and the site’s own administrator initially encouraged anons to just connect directly. “Feel free to post without Tor,” he wrote in a welcome message. “Even as the admin I have no power to identify anyone.”
👉🏼 Read more:
https://www.thedailybeast.com/8chan-users-migrating-to-zeronet-are-accidentally-revealing-their-locations
👉🏼 Read as well:
https://habd.as/post/securely-access-08chan-zeronet/
#8chan #08chan #ZeroNet #anonymity
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
us-19-Shupeng-All-The-4G-Modules-Could-Be-Hacked.pdf
11.5 MB
Blackhat USA 2019 - All the 4G modules could be hacked
https://i.blackhat.com/USA-19/Wednesday/us-19-Shupeng-All-The-4G-Modules-Could-Be-Hacked.pdf
#blackhat #usa #4G #hacking #pdf
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
https://i.blackhat.com/USA-19/Wednesday/us-19-Shupeng-All-The-4G-Modules-Could-Be-Hacked.pdf
#blackhat #usa #4G #hacking #pdf
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
This media is not supported in your browser
VIEW IN TELEGRAM
Russia Says Small Nuclear Reactor Blew Up in Deadly Accident
The failed missile test that ended in an explosion killing five scientists last week on Russia’s White Sea involved a small nuclear reactor, according to a top official at the institute where they worked.
📺 https://time.com/5649826/russia-nuclear-accident
👉🏼 Read as well:
https://www.nytimes.com/2019/08/12/world/europe/russia-nuclear-reactor-explosion-response.html
#russia #nuclear #reactor #accident #video #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The failed missile test that ended in an explosion killing five scientists last week on Russia’s White Sea involved a small nuclear reactor, according to a top official at the institute where they worked.
📺 https://time.com/5649826/russia-nuclear-accident
👉🏼 Read as well:
https://www.nytimes.com/2019/08/12/world/europe/russia-nuclear-reactor-explosion-response.html
#russia #nuclear #reactor #accident #video #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
LiveStream - Protesters paralyze airport again - police starts evacuation
The protests in Hong Kong continue. Demonstrators have again paralyzed the international airport. Police start evacuating the airport.
👉🏼 Livestream:
https://www.welt.de/politik/video198492667/Hongkong-Demonstranten-legen-erneut-Flughafen-lahm-Polizei-beginnt-mit-Raeumung.html
#FreeHongKong #video #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The protests in Hong Kong continue. Demonstrators have again paralyzed the international airport. Police start evacuating the airport.
👉🏼 Livestream:
https://www.welt.de/politik/video198492667/Hongkong-Demonstranten-legen-erneut-Flughafen-lahm-Polizei-beginnt-mit-Raeumung.html
#FreeHongKong #video #thinkabout
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Media is too big
VIEW IN TELEGRAM
Fata Morgana - Sheikh fools Hamburg luxury department store
An alleged billionaire presents underage wives, has his back scratched and is carried on hands. Employees of a luxury department store in Hamburg have no suspicion. Video footage shows incredible scenes.
Fata Morgana is a satire. But what is it that is ultimately about? On the culture of the sheikhs? Or to an industry that - as soon as the Bakshish is right - obviously knows no borders anymore?
May the white man parody Arab culture in 2019 to expose the white capitalist system?
📺 https://www.youtube.com/watch?v=SYWgXQT0K3g
#satiric #thinkabout #video
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
An alleged billionaire presents underage wives, has his back scratched and is carried on hands. Employees of a luxury department store in Hamburg have no suspicion. Video footage shows incredible scenes.
Fata Morgana is a satire. But what is it that is ultimately about? On the culture of the sheikhs? Or to an industry that - as soon as the Bakshish is right - obviously knows no borders anymore?
May the white man parody Arab culture in 2019 to expose the white capitalist system?
📺 https://www.youtube.com/watch?v=SYWgXQT0K3g
#satiric #thinkabout #video
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
jeffrey-epsteins-little-black-book-redacted.pdf
10.1 MB
Jeffrey Epstein’s “little black book”
The list of British contacts includes musicians and celebrities like Mick Jagger as well as politicians like Tony Blair or business tycoons such as Richard Branson. Prince Andrew was even among Epstein’s famous contacts, and there is significant evidence that they carried out crimes and abuse together. Multiple victims have now pointed the finger at Prince Andrew as an abuser and an accomplice to Jeffrey Epstein.
There were 16 numbers listed for Prince Andrew, which included a cell phone as well as lines for Balmoral and Sandringham palaces, where Epstein often visited. Even Prince Andrew’s former romantic interest Sarah Ferguson was also named under the book under 18 different phone numbers.
https://www.documentcloud.org/documents/1508273-jeffrey-epsteins-little-black-book-redacted.html
#epstein #BlackBook #documents #pdf
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The list of British contacts includes musicians and celebrities like Mick Jagger as well as politicians like Tony Blair or business tycoons such as Richard Branson. Prince Andrew was even among Epstein’s famous contacts, and there is significant evidence that they carried out crimes and abuse together. Multiple victims have now pointed the finger at Prince Andrew as an abuser and an accomplice to Jeffrey Epstein.
There were 16 numbers listed for Prince Andrew, which included a cell phone as well as lines for Balmoral and Sandringham palaces, where Epstein often visited. Even Prince Andrew’s former romantic interest Sarah Ferguson was also named under the book under 18 different phone numbers.
https://www.documentcloud.org/documents/1508273-jeffrey-epsteins-little-black-book-redacted.html
#epstein #BlackBook #documents #pdf
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Kasper-Spy: Kaspersky Anti-Virus puts users at risk
Kaspersky promises security and data protection. However, a data leak allowed third parties to spy on users while they were surfing the web. For years.
A strange discovery on my office computer led me to unearth an astonishing data leak caused by Kaspersky's antivirus software. Originally, I had installed the software in order to experience the promised added value during everyday use. We, journalists at c't magazine, regularly test antivirus software, and this was part of a test for our c't issue 3/2019.
The following weeks and months seemed to offer little excitement – the Kaspersky software worked essentially as well or as badly as Windows Defender. One day, however, I made a strange discovery. I looked at the HTML source code of an arbitrary website and came across the following line of code:
To investigate, I experimented with webbrowsers Firefox, Edge, and Opera. Again, the same line of code popped up everywhere. Since I had no suspicious browser extensions installed which could be responsible, the simple conclusion was that Kaspersky's virus protection was manipulating my traffic. Without my permission, it was injecting that code. Before that day, I had observed such behaviour only from online banking Trojans. That is malware built to manipulate bank websites, for example to secretly change the recipient of a money transfer. But what the heck was Kaspersky doing there?
My first examination of Kaspersky's script main.js showed me that, among other things, it displays green icons with Google search results if Kaspersky believes the relevant link to lead to a clean website. This could have been the end of my analysis, but there was this one small detail: The address from which the Kaspersky script was loaded contained a suspicious string:
I expanded my experiment and installed the Kaspersky software on other computers. Kaspersky also injected JavaScript on those other systems. However, I discovered a crucial difference: The UUID in the source address was different on each system. The IDs were persistent and did not change, even several days later. So it was clear that each computer had it's own permanently assigned ID.
👉🏼 Read more:
https://www.heise.de/ct/artikel/Kasper-Spy-Kaspersky-Anti-Virus-puts-users-at-risk-4496138.html
#Kaspersky #AntiVirus #software #Spy #DataLeak
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Kaspersky promises security and data protection. However, a data leak allowed third parties to spy on users while they were surfing the web. For years.
A strange discovery on my office computer led me to unearth an astonishing data leak caused by Kaspersky's antivirus software. Originally, I had installed the software in order to experience the promised added value during everyday use. We, journalists at c't magazine, regularly test antivirus software, and this was part of a test for our c't issue 3/2019.
The following weeks and months seemed to offer little excitement – the Kaspersky software worked essentially as well or as badly as Windows Defender. One day, however, I made a strange discovery. I looked at the HTML source code of an arbitrary website and came across the following line of code:
<script type="text/javascript" src="https://gc.kis.v2.scr.kaspersky-labs.com/9344FDA7-AFDF-4BA0-A915-4D7EEB9A6615/main.js" charset="UTF-8"></script>Obviously, an external JavaScript script named main.js was being loaded from a Kaspersky domain. This is not uncommon, since a website nowadays hardly works without external JavaScript resources. However, when I checked the HTML source of other websites displayed in my browser, I found the strange code on each and every page. Without exception, even on the website of my bank, a script from Kaspersky was introduced. So I had an inkling that the Kaspersky software might have something to do with it.
To investigate, I experimented with webbrowsers Firefox, Edge, and Opera. Again, the same line of code popped up everywhere. Since I had no suspicious browser extensions installed which could be responsible, the simple conclusion was that Kaspersky's virus protection was manipulating my traffic. Without my permission, it was injecting that code. Before that day, I had observed such behaviour only from online banking Trojans. That is malware built to manipulate bank websites, for example to secretly change the recipient of a money transfer. But what the heck was Kaspersky doing there?
My first examination of Kaspersky's script main.js showed me that, among other things, it displays green icons with Google search results if Kaspersky believes the relevant link to lead to a clean website. This could have been the end of my analysis, but there was this one small detail: The address from which the Kaspersky script was loaded contained a suspicious string:
https://gc.kis.v2.scr.kaspersky-labs.com/9344FDA7-AFDF-4BA0-A915-4D7EEB9A6615/main.jsThe part marked bold has a characteristic pattern. The structure matches a so-called Universally Unique Identifier (UUID). These IDs are used to make things, well, uniquely identifiable. But who or what can be identified using the Kaspersky ID?
I expanded my experiment and installed the Kaspersky software on other computers. Kaspersky also injected JavaScript on those other systems. However, I discovered a crucial difference: The UUID in the source address was different on each system. The IDs were persistent and did not change, even several days later. So it was clear that each computer had it's own permanently assigned ID.
👉🏼 Read more:
https://www.heise.de/ct/artikel/Kasper-Spy-Kaspersky-Anti-Virus-puts-users-at-risk-4496138.html
#Kaspersky #AntiVirus #software #Spy #DataLeak
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
🇪🇸 Audios de Messenger fueron escuchados por cientos de empleados de Facebook.
Facebook ha admitido que recopiló mensajes de audio grabados con su app de mensajería, Messenger, e hizo que contratistas los escuchasen. Esta ya es la cuarta ocasión en lo que llevamos de año en la que se revela la existencia de estas prácticas en la industria tecnológica.
Un reportaje de Bloomberg publicado el pasado martes desveló la existencia de un programa en Facebook dedicado al análisis del chat de voz de Messenger, que permite enviar una grabación corta a nuestros amigos. Es especialmente útil si no puedes usar el teclado en ese momento, y prácticamente todas las apps de mensajería lo tienen.
Pero, para una compañía como Facebook los mensajes de audio suponen un problema, ya que ocupan más espacio que el texto en sus servidores, y no puede ser analizado tan fácilmente. Por eso, los algoritmos de la compañía se encargan de transcribir el contenido de los audios. Sin embargo, estos algoritmos no siempre funcionan u obtienen resultados inexactos.
Los audios de Messenger fueron escuchados.
En algunos casos, el archivo se guardaba y se compartía con empleados externos de Facebook, contratistas encargados de escuchar el audio y transcribir manualmente el contenido. Esto se hacía para comprobar la precisión de la transcripción automática realizada por el algoritmo; por ejemplo, en caso de que el ruido ambiente provocase errores, o que el algoritmo no detectase correctamente nuestra voz.
Algunos de los archivos de audio que fueron escuchados por humanos incluían conversaciones "vulgares", que los algoritmos no entendían. Se desconoce cuántos archivos de audio se analizaron de esta manera, pero sí que el equipo encargado de esta tarea estaba compuesto de unos "cientos" de personas.
Facebook ha salido al paso confirmando la existencia de este programa, pero afirma que los audios provienen sólo de usuarios que aceptaron los términos de uso, que incluyen la posibilidad de que los chats de audio sean transcritos. Sin embargo, y como suele ocurrir con los términos de uso, el lenguaje usado es poco específico y no se explica claramente que una persona escuchará los mensajes de audio que grabamos.
Similar a Google y Apple.
En todo caso, la compañía ha asegurado que ya detuvo estas prácticas "hace más de una semana"; probablemente en respuesta a escándalos similares protagonizados por Amazon, Google y Apple.
Fue hace semana y media que Google y Apple anunciaron públicamente que sus empleados iban a dejar de escuchar lo que decíamos a Siri y Google Home, sus asistentes virtuales. Son casos muy parecidos al de Facebook, en el que las limitaciones tecnológicas de los algoritmos son subsanadas por personas reales que se encargan de escuchar nuestras conversaciones y órdenes para encontrarles el sentido.
https://www.elespanol.com/omicrono/20190814/audios-messenger-escuchados-cientos-empleados-facebook/421458017_0.html
#facebook #messenger #privacidad #mensajes #audio
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Facebook ha admitido que recopiló mensajes de audio grabados con su app de mensajería, Messenger, e hizo que contratistas los escuchasen. Esta ya es la cuarta ocasión en lo que llevamos de año en la que se revela la existencia de estas prácticas en la industria tecnológica.
Un reportaje de Bloomberg publicado el pasado martes desveló la existencia de un programa en Facebook dedicado al análisis del chat de voz de Messenger, que permite enviar una grabación corta a nuestros amigos. Es especialmente útil si no puedes usar el teclado en ese momento, y prácticamente todas las apps de mensajería lo tienen.
Pero, para una compañía como Facebook los mensajes de audio suponen un problema, ya que ocupan más espacio que el texto en sus servidores, y no puede ser analizado tan fácilmente. Por eso, los algoritmos de la compañía se encargan de transcribir el contenido de los audios. Sin embargo, estos algoritmos no siempre funcionan u obtienen resultados inexactos.
Los audios de Messenger fueron escuchados.
En algunos casos, el archivo se guardaba y se compartía con empleados externos de Facebook, contratistas encargados de escuchar el audio y transcribir manualmente el contenido. Esto se hacía para comprobar la precisión de la transcripción automática realizada por el algoritmo; por ejemplo, en caso de que el ruido ambiente provocase errores, o que el algoritmo no detectase correctamente nuestra voz.
Algunos de los archivos de audio que fueron escuchados por humanos incluían conversaciones "vulgares", que los algoritmos no entendían. Se desconoce cuántos archivos de audio se analizaron de esta manera, pero sí que el equipo encargado de esta tarea estaba compuesto de unos "cientos" de personas.
Facebook ha salido al paso confirmando la existencia de este programa, pero afirma que los audios provienen sólo de usuarios que aceptaron los términos de uso, que incluyen la posibilidad de que los chats de audio sean transcritos. Sin embargo, y como suele ocurrir con los términos de uso, el lenguaje usado es poco específico y no se explica claramente que una persona escuchará los mensajes de audio que grabamos.
Similar a Google y Apple.
En todo caso, la compañía ha asegurado que ya detuvo estas prácticas "hace más de una semana"; probablemente en respuesta a escándalos similares protagonizados por Amazon, Google y Apple.
Fue hace semana y media que Google y Apple anunciaron públicamente que sus empleados iban a dejar de escuchar lo que decíamos a Siri y Google Home, sus asistentes virtuales. Son casos muy parecidos al de Facebook, en el que las limitaciones tecnológicas de los algoritmos son subsanadas por personas reales que se encargan de escuchar nuestras conversaciones y órdenes para encontrarles el sentido.
https://www.elespanol.com/omicrono/20190814/audios-messenger-escuchados-cientos-empleados-facebook/421458017_0.html
#facebook #messenger #privacidad #mensajes #audio
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El Español
Audios de Messenger fueron escuchados por cientos de empleados de Facebook
La compañía ha confirmado las prácticas en los audios de Messenger. Los casos de Google y Apple fueron similares. Alexa fue la primera en revelar estas prácticas.
Over 20 Texas local governments hit in 'coordinated ransomware attack'
Infection blamed on a strain of ransomware known only as the ".JSE ransomware."
Twenty-three local Texas governments have been infected with ransomware last week in what Texas officials have described as a coordinated attack.
The attack took place on Friday morning, August 16, US time, when several smaller local Texas governments reported problems with accessing their data to the Texas Department of Information Resources (DIR).
DIR officials did not pubish a list of impacted local governments. On Friday, the agency couldn't provide an exact number of impacted entities, but a day later, DIR said the number is 23.
.JSE ransomware
ZDNet has learned from a local source that the ransomware that infected the networks of the 23 local Texas governments encrypts files and then adds the .JSE extension at the end.
This ransomware strain does not have its own name, being generally called the .jse ransomware --although some antivirus vendors detect it as Nemucod, under the name of the trojan that drops it on infected hosts.
First signs of this .jse ransomware have been spotted as early as August 2018, but activity has continued and has been reported as recently as this month. The ransomware is a strange one as it does not leave a ransom note behind, confusing victims who most of the time don't know what happened.
In recent months, US cities have been a prime target for ransomware gangs, with infections reported all over the US.
In July, the governor of Louisiana declared a state emergency after a similar coordinated ransomware attack hit several school districts.
"It appears all entities that were actually or potentially impacted have been identified and notified," DIR said. "Responders are actively working with these entities to bring their systems back online."
The organization has been coordinating recovery efforts together with more than ten other Texas and US government agencies, such as the Texas Division of Emergency Management, the FBI, the DHS, the Texas Department of Public Safety, and others.
"At this time, the evidence gathered indicates the attacks came from one single threat actor," DIR officials said on Saturday.
https://www.zdnet.com/article/at-least-20-texas-local-governments-hit-in-coordinated-ransomware-attack/
#ransomware #attack #usa #texas
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Infection blamed on a strain of ransomware known only as the ".JSE ransomware."
Twenty-three local Texas governments have been infected with ransomware last week in what Texas officials have described as a coordinated attack.
The attack took place on Friday morning, August 16, US time, when several smaller local Texas governments reported problems with accessing their data to the Texas Department of Information Resources (DIR).
DIR officials did not pubish a list of impacted local governments. On Friday, the agency couldn't provide an exact number of impacted entities, but a day later, DIR said the number is 23.
.JSE ransomware
ZDNet has learned from a local source that the ransomware that infected the networks of the 23 local Texas governments encrypts files and then adds the .JSE extension at the end.
This ransomware strain does not have its own name, being generally called the .jse ransomware --although some antivirus vendors detect it as Nemucod, under the name of the trojan that drops it on infected hosts.
First signs of this .jse ransomware have been spotted as early as August 2018, but activity has continued and has been reported as recently as this month. The ransomware is a strange one as it does not leave a ransom note behind, confusing victims who most of the time don't know what happened.
In recent months, US cities have been a prime target for ransomware gangs, with infections reported all over the US.
In July, the governor of Louisiana declared a state emergency after a similar coordinated ransomware attack hit several school districts.
"It appears all entities that were actually or potentially impacted have been identified and notified," DIR said. "Responders are actively working with these entities to bring their systems back online."
The organization has been coordinating recovery efforts together with more than ten other Texas and US government agencies, such as the Texas Division of Emergency Management, the FBI, the DHS, the Texas Department of Public Safety, and others.
"At this time, the evidence gathered indicates the attacks came from one single threat actor," DIR officials said on Saturday.
https://www.zdnet.com/article/at-least-20-texas-local-governments-hit-in-coordinated-ransomware-attack/
#ransomware #attack #usa #texas
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Media is too big
VIEW IN TELEGRAM
Suicided: The Final Days of Jeffrey Epstein
In this in-depth exploration of the death (?) of Jeffrey Epstein (?), James and The Corbett Report community members tackle 3 questions: What do we know about this incident? What do we not know? And what does it all mean?
📺 https://www.corbettreport.com/epsteindeath/
#corbettreport #epstein #death #video #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
In this in-depth exploration of the death (?) of Jeffrey Epstein (?), James and The Corbett Report community members tackle 3 questions: What do we know about this incident? What do we not know? And what does it all mean?
📺 https://www.corbettreport.com/epsteindeath/
#corbettreport #epstein #death #video #podcast
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El reconocimiento facial es el nuevo objetivo de la Comisión Europea.
El reconocimiento facial es una de las tecnologías que más ha avanzado en los últimos años, gracias a la mejora continua del aprendizaje automático. Hoy en día, hasta tu teléfono móvil es capaz de identificarte sólo por el rostro sin muchos problemas. La cuestión es qué pasará cuando esta tecnología se implemente allá por donde vayamos.
Países como EEUU o China ya lo están demostrando, ya sea identificando a los alumnos en los colegios o creando una "puntuación social" que empeora si haces cosas como cruzar la calle con el semáforo en rojo.
En la Unión Europea, leyes como el reglamento de protección de datos (RGPD) no solo protegen los datos que damos a las apps, sino también nuestra información "biométrica", como nuestra huella dactilar o la forma de nuestra cara. Pero eso es sólo el principio.
Los comisarios van a por el reconocimiento facial.
Según adelanta Financial Times, la Comisión Europea ya está trabajando en nuevas leyes dirigidas especialmente a limitar el uso del reconocimiento facial. En concreto, este nuevo texto estaría siendo desarrollado en preparación a una regulación más amplia de la Inteligencia Artificial y el aprendizaje automático.
La nueva ley implementará protecciones explícitas sobre los datos de reconocimiento facial, expandiéndolas respecto a las ya existentes por el RGPD. Entre los cambios que se están considerando estaría la posibilidad de saber cuándo esos datos están siendo usados; por ejemplo, con avisos de que la compañía está accediendo a los datos de reconocimiento facial.
De esta forma, en un instante sabríamos si alguien está usando los datos relacionados con nuestra cara, ya sea para iniciar sesión en un sitio, o bien para investigación y desarrollo.
Que la Comisión Europea va a por el reconocimiento facial no es ninguna sorpresa, ya que es algo que la comisaria Ursula von der Leyen ya avisó en su día. La clave estará en la manera en la que estas leyes estarán implementadas.
https://www.elespanol.com/omicrono/20190822/reconocimiento-facial-nuevo-objetivo-comision-europea/423458434_0.html
#ue #privacidad #reconocimiento #facial
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El reconocimiento facial es una de las tecnologías que más ha avanzado en los últimos años, gracias a la mejora continua del aprendizaje automático. Hoy en día, hasta tu teléfono móvil es capaz de identificarte sólo por el rostro sin muchos problemas. La cuestión es qué pasará cuando esta tecnología se implemente allá por donde vayamos.
Países como EEUU o China ya lo están demostrando, ya sea identificando a los alumnos en los colegios o creando una "puntuación social" que empeora si haces cosas como cruzar la calle con el semáforo en rojo.
En la Unión Europea, leyes como el reglamento de protección de datos (RGPD) no solo protegen los datos que damos a las apps, sino también nuestra información "biométrica", como nuestra huella dactilar o la forma de nuestra cara. Pero eso es sólo el principio.
Los comisarios van a por el reconocimiento facial.
Según adelanta Financial Times, la Comisión Europea ya está trabajando en nuevas leyes dirigidas especialmente a limitar el uso del reconocimiento facial. En concreto, este nuevo texto estaría siendo desarrollado en preparación a una regulación más amplia de la Inteligencia Artificial y el aprendizaje automático.
La nueva ley implementará protecciones explícitas sobre los datos de reconocimiento facial, expandiéndolas respecto a las ya existentes por el RGPD. Entre los cambios que se están considerando estaría la posibilidad de saber cuándo esos datos están siendo usados; por ejemplo, con avisos de que la compañía está accediendo a los datos de reconocimiento facial.
De esta forma, en un instante sabríamos si alguien está usando los datos relacionados con nuestra cara, ya sea para iniciar sesión en un sitio, o bien para investigación y desarrollo.
Que la Comisión Europea va a por el reconocimiento facial no es ninguna sorpresa, ya que es algo que la comisaria Ursula von der Leyen ya avisó en su día. La clave estará en la manera en la que estas leyes estarán implementadas.
https://www.elespanol.com/omicrono/20190822/reconocimiento-facial-nuevo-objetivo-comision-europea/423458434_0.html
#ue #privacidad #reconocimiento #facial
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El Español
El reconocimiento facial es el nuevo objetivo de la Comisión Europea
Se preparan nuevas leyes contra el reconocimiento facial En países como EEUU, se usa sin conocimiento del usuario. En China, los aeropuertos identifican a los viajeros.
Avast and French police take over malware botnet and disinfect 850,000 computers
Joint private-law enforcement efforts shuts down two-year-old Redatup malware operation for good.
Antivirus maker Avast and the French National Gendarmerie announced today that they've taken down the backend infrastructure of the Retadup malware gang.
Furthermore, as a result of gaining access to this infrastructure, Avast and French authorities used the criminal gang's command and control (C&C) servers to instruct the Retadup malware to delete itself from infected computers, effectively disinfecting over 850,000 Windows systems without users having to do anything.
Most Redatup victims were located in Latin America
The antivirus maker said that all of this was possible after its malware analysts began looking into the malware with a fine comb back in March.
Avast researchers discovered a design flaw in the C&C server communications protocol that could allow them to instruct the malware to deleting itself.
Since the Redatup malware's C&C servers were located in France, Avast approached French authorities, who agreed to help, and seized the crooks' servers.
Once Avast and French officials had the Redatup servers in their hands, they replaced the malicious ones with copies that instructed any infected host which connected to the server to delete itself.
Based on telemetry Avast collected starting with July 2, when they first took over malware's servers, the vast majority of Redatup-infected computers were located in Latin America.
Peru accounted for nearly 35% of all infections, but when researchers added infection numbers from Venezuela, Bolivia, Ecuador, Mexico, Colombia, Argentian, and Cuba, just these nine countries accounted for 85% of the entire Redatup botnet.
#avast #french #police #malware #botnet
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Joint private-law enforcement efforts shuts down two-year-old Redatup malware operation for good.
Antivirus maker Avast and the French National Gendarmerie announced today that they've taken down the backend infrastructure of the Retadup malware gang.
Furthermore, as a result of gaining access to this infrastructure, Avast and French authorities used the criminal gang's command and control (C&C) servers to instruct the Retadup malware to delete itself from infected computers, effectively disinfecting over 850,000 Windows systems without users having to do anything.
Most Redatup victims were located in Latin America
The antivirus maker said that all of this was possible after its malware analysts began looking into the malware with a fine comb back in March.
Avast researchers discovered a design flaw in the C&C server communications protocol that could allow them to instruct the malware to deleting itself.
Since the Redatup malware's C&C servers were located in France, Avast approached French authorities, who agreed to help, and seized the crooks' servers.
Once Avast and French officials had the Redatup servers in their hands, they replaced the malicious ones with copies that instructed any infected host which connected to the server to delete itself.
Based on telemetry Avast collected starting with July 2, when they first took over malware's servers, the vast majority of Redatup-infected computers were located in Latin America.
Peru accounted for nearly 35% of all infections, but when researchers added infection numbers from Venezuela, Bolivia, Ecuador, Mexico, Colombia, Argentian, and Cuba, just these nine countries accounted for 85% of the entire Redatup botnet.
Read more:https://www.zdnet.com/article/avast-and-french-police-take-over-malware-botnet-and-disinfect-850000-computers/
#avast #french #police #malware #botnet
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
From The Handmaid's Tale to Facebook's secrets: best books on surveillance
Joanna Kavenna selects her favourite books that reveal how we are scrutinised – including a history of black slavery and classics by Atwood and Orwell
With immaculate irony, Facebook announced its new cryptocurrency, hoping to bring the financial transactions of its 2.4 billion users on to its platform, in the year that marks 70 years since the publication of George Orwell’s Nineteen Eighty-Four. The digital revolution has dramatically altered the way we live and how we are observed, nudged and guided. But who owns all this knowledge and what do they want it for? Why is this interventionist reality watching us so intently, if it only wants to be our friend?
Knowledge is power – a phrase supposedly coined by Francis Bacon in 1597. Two centuries later, Jeremy Bentham advanced the concept of the panopticon: a prison where “by blinds and other contrivances” a single guard would be concealed, having “the most perfect view of every cell”. In reality the guard couldn’t watch everyone all the time, but in his Panopticon Writings Bentham argued the mere possibility of surveillance was enough to alter a prisoner’s behaviour and therefore ensure “power of mind over mind”. Bentham thought this was a great idea; Michel Foucault begged to differ, suggesting in Discipline and Punish that knowledge linked to power not only assumes the authority of “the truth” but has the power to make itself true.
In Dark Matters, Simone Browne notes that Bentham developed his ideas while travelling on a boat carrying slaves “under the hatches”. A history of the panopticon, she argues, must incorporate 18th-century designs for slave ships, in which a central vantage point permitted a view of all the slaves onboard. The schematic for one such ship (the Brooks, which was built in 1781) depicts “tiny black figures set to represent the enslaved drawn like so many cartoon figures”, Browne writes. Under the panopticon, unique mortals are diminished into a mass, seen through a one-way mirror.
The Russian author Yevgeny Zamyatin’s novel We was banned by the Soviet censorship board in 1921, appearing in an English translation three years later. He describes a future society in which all the buildings are made of glass so – like the panopticon – everyone can be seen at all times. Orwell reviewed We in 1946, three years before echoing Bentham in his own novel, Nineteen Eighty-Four: “There was of course no way of knowing whether you were being watched at any given moment. You had to live … in the assumption that every sound you made was overheard, and, except in darkness, every movement scrutinised.”
Bentham’s vision is also explored in Margaret Atwood’s novel The Handmaid’s Tale, in which inhabitants are monitored by the Eyes – the secret police of Gilead. There can be no privacy, no meaningful intimate relations, when your friends or lovers may be Eyes as well.
In our current era, the watchers are more than human, as Shoshana Zuboff examines in The Age of Surveillance Capitalism. A vast network of helpful devices observes our lives and converts them into data, which is used to target us with adverts or predict how we will vote. Yet prediction is an uncertain art. Our friendly global tech companies are less like soothsayers than magicians, urging us towards a particular card while convincing us it is the one we have freely chosen. The idea that our hidden, private selves are known may be unpleasant, as Peter Pomerantsev puts it in This Is Not Propaganda, but it is more disconcerting to imagine “that ‘they’ know something about me which I hadn’t realised myself, that I’m not who I think I am”. Time to read Dorian Lynskey’s cultural biography of Nineteen Eighty-Four, The Ministry of Truth, and to defriend Siri.
https://www.theguardian.com/books/2019/sep/02/from-the-handmaids-tale-to-facebooks-secrets-best-books-on-surveillance
#surveillance #secrets #DeleteFacebook #books
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Joanna Kavenna selects her favourite books that reveal how we are scrutinised – including a history of black slavery and classics by Atwood and Orwell
With immaculate irony, Facebook announced its new cryptocurrency, hoping to bring the financial transactions of its 2.4 billion users on to its platform, in the year that marks 70 years since the publication of George Orwell’s Nineteen Eighty-Four. The digital revolution has dramatically altered the way we live and how we are observed, nudged and guided. But who owns all this knowledge and what do they want it for? Why is this interventionist reality watching us so intently, if it only wants to be our friend?
Knowledge is power – a phrase supposedly coined by Francis Bacon in 1597. Two centuries later, Jeremy Bentham advanced the concept of the panopticon: a prison where “by blinds and other contrivances” a single guard would be concealed, having “the most perfect view of every cell”. In reality the guard couldn’t watch everyone all the time, but in his Panopticon Writings Bentham argued the mere possibility of surveillance was enough to alter a prisoner’s behaviour and therefore ensure “power of mind over mind”. Bentham thought this was a great idea; Michel Foucault begged to differ, suggesting in Discipline and Punish that knowledge linked to power not only assumes the authority of “the truth” but has the power to make itself true.
In Dark Matters, Simone Browne notes that Bentham developed his ideas while travelling on a boat carrying slaves “under the hatches”. A history of the panopticon, she argues, must incorporate 18th-century designs for slave ships, in which a central vantage point permitted a view of all the slaves onboard. The schematic for one such ship (the Brooks, which was built in 1781) depicts “tiny black figures set to represent the enslaved drawn like so many cartoon figures”, Browne writes. Under the panopticon, unique mortals are diminished into a mass, seen through a one-way mirror.
The Russian author Yevgeny Zamyatin’s novel We was banned by the Soviet censorship board in 1921, appearing in an English translation three years later. He describes a future society in which all the buildings are made of glass so – like the panopticon – everyone can be seen at all times. Orwell reviewed We in 1946, three years before echoing Bentham in his own novel, Nineteen Eighty-Four: “There was of course no way of knowing whether you were being watched at any given moment. You had to live … in the assumption that every sound you made was overheard, and, except in darkness, every movement scrutinised.”
Bentham’s vision is also explored in Margaret Atwood’s novel The Handmaid’s Tale, in which inhabitants are monitored by the Eyes – the secret police of Gilead. There can be no privacy, no meaningful intimate relations, when your friends or lovers may be Eyes as well.
In our current era, the watchers are more than human, as Shoshana Zuboff examines in The Age of Surveillance Capitalism. A vast network of helpful devices observes our lives and converts them into data, which is used to target us with adverts or predict how we will vote. Yet prediction is an uncertain art. Our friendly global tech companies are less like soothsayers than magicians, urging us towards a particular card while convincing us it is the one we have freely chosen. The idea that our hidden, private selves are known may be unpleasant, as Peter Pomerantsev puts it in This Is Not Propaganda, but it is more disconcerting to imagine “that ‘they’ know something about me which I hadn’t realised myself, that I’m not who I think I am”. Time to read Dorian Lynskey’s cultural biography of Nineteen Eighty-Four, The Ministry of Truth, and to defriend Siri.
https://www.theguardian.com/books/2019/sep/02/from-the-handmaids-tale-to-facebooks-secrets-best-books-on-surveillance
#surveillance #secrets #DeleteFacebook #books
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
🇪🇸 La aplicación viral que te convierte en estrella, a cambio de tus datos.
La aplicación Zao hace furor en China suplantando la imagen de todo tipo de famosos, pero se extiende la preocupación por los datos personales que recoge la empresa que la desarrolla.
¿Quién no ha soñado alguna vez con ser una gran estrella de cine, un deportista de éxito, o, en estos tiempos, el influencer más famoso? Pues, en China, ahora cualquiera puede hacer realidad ese deseo. No hay más que descargar la aplicación móvil de Zao, seguir unos sencillos pasos y, ¡voilà!, el vídeo del usuario convertido en quienquiera ser está listo para ser descargado y, sobre todo, para ser compartido en las redes sociales. De forma alternativa, también se puede crear un archivo GIF para enviar como emoticono.
Es lo que se conoce como un deep fake, una suplantación de identidad que, en este caso, consiste en utilizar sistemas de inteligencia artificial para combinar el rostro del usuario con el del famoso de turno de forma que el primero parezca el segundo. En el gigante asiático, la aplicación se ha vuelto tan viral que es ya, según App Annie, el programa gratuito más descargado de la App Store de Apple en China este año. Y es algo que se evidencia en redes como Weibo o WeChat, que se han llenado de clips de películas y series famosas con protagonistas inesperados en un fenómeno que recuerda al de la FaceApp que sirve para envejecerse de forma virtual.
Gran parte de su éxito reside en la facilidad de uso de Zao. Una vez instalada la app y creada una cuenta, el usuario elige el personaje en el que se quiere convertir en una larga lista en la que hay estrellas chinas y extranjeras. Uno se puede convertir en Chow Yun-fat, pero también en Kristen Stewart. Luego, aprieta el botón de la celebridad elegida, y se hace una foto o elige otro retrato de la galería del móvil. El sistema otorga una puntuación de cero a diez dependiendo de la idoneidad de la imagen, y muestra un mensaje en el que se advierte de que el retrato debe estar libre de derechos y adecuarse a la normativa china.
De lo contrario, el rostro solo se podrá utilizar en diez ocasiones y únicamente para previsualizaciones. Sin una imagen aprobada, el vídeo no se puede guardar, ni exportar, ni siquiera grabar subrepticiamente con una captura de pantalla -screencast-, que da como resultado un vídeo en negro. Para lograr la autorización y poder mostrar su identidad soñada, el usuario debe escanear su cara frente a la cámara del smartphone, mirando a un lado y a otro, subiendo y bajando la cabeza.
En ese último punto reside la polémica, porque muchos usuarios han comenzado a preguntarse qué hace el desarrollador de la aplicación con todos sus datos. Al fin y al cabo, para utilizarla es imprescindible darle acceso a casi todo. En el segundo punto del primer apartado de los términos y condiciones del servicio, Zao advierte: “Para mejorar el producto y el servicio, y para poder ofrecerle información personalizada y anuncios, recogeremos datos sobre sus búsquedas, su teléfono móvil, la ubicación, y el historial de compras”.
En el tercer punto también informa de que se guardarán las imágenes del usuario. Eso sí, en el primer punto del segundo apartado promete no compartir toda esta información con terceros, “salvo que el usuario dé su permiso o sea requerido por ley”. Ese último precepto se puede entender como un "salvo que las autoridades lo pidan", y es constante en todos los servicios para móviles que se ofrecen en la segunda potencia mundial. Por eso, hay quienes, como Yu Lin, se despreocupan por completo: “En China no hay ningún tipo de privacidad, el Gobierno puede disponer de todos mis datos cuando quiera”, comenta esta joven Shanghainesa por WeChat. “Al menos, con Zhao me divierto”.
La aplicación Zao hace furor en China suplantando la imagen de todo tipo de famosos, pero se extiende la preocupación por los datos personales que recoge la empresa que la desarrolla.
¿Quién no ha soñado alguna vez con ser una gran estrella de cine, un deportista de éxito, o, en estos tiempos, el influencer más famoso? Pues, en China, ahora cualquiera puede hacer realidad ese deseo. No hay más que descargar la aplicación móvil de Zao, seguir unos sencillos pasos y, ¡voilà!, el vídeo del usuario convertido en quienquiera ser está listo para ser descargado y, sobre todo, para ser compartido en las redes sociales. De forma alternativa, también se puede crear un archivo GIF para enviar como emoticono.
Es lo que se conoce como un deep fake, una suplantación de identidad que, en este caso, consiste en utilizar sistemas de inteligencia artificial para combinar el rostro del usuario con el del famoso de turno de forma que el primero parezca el segundo. En el gigante asiático, la aplicación se ha vuelto tan viral que es ya, según App Annie, el programa gratuito más descargado de la App Store de Apple en China este año. Y es algo que se evidencia en redes como Weibo o WeChat, que se han llenado de clips de películas y series famosas con protagonistas inesperados en un fenómeno que recuerda al de la FaceApp que sirve para envejecerse de forma virtual.
Gran parte de su éxito reside en la facilidad de uso de Zao. Una vez instalada la app y creada una cuenta, el usuario elige el personaje en el que se quiere convertir en una larga lista en la que hay estrellas chinas y extranjeras. Uno se puede convertir en Chow Yun-fat, pero también en Kristen Stewart. Luego, aprieta el botón de la celebridad elegida, y se hace una foto o elige otro retrato de la galería del móvil. El sistema otorga una puntuación de cero a diez dependiendo de la idoneidad de la imagen, y muestra un mensaje en el que se advierte de que el retrato debe estar libre de derechos y adecuarse a la normativa china.
De lo contrario, el rostro solo se podrá utilizar en diez ocasiones y únicamente para previsualizaciones. Sin una imagen aprobada, el vídeo no se puede guardar, ni exportar, ni siquiera grabar subrepticiamente con una captura de pantalla -screencast-, que da como resultado un vídeo en negro. Para lograr la autorización y poder mostrar su identidad soñada, el usuario debe escanear su cara frente a la cámara del smartphone, mirando a un lado y a otro, subiendo y bajando la cabeza.
En ese último punto reside la polémica, porque muchos usuarios han comenzado a preguntarse qué hace el desarrollador de la aplicación con todos sus datos. Al fin y al cabo, para utilizarla es imprescindible darle acceso a casi todo. En el segundo punto del primer apartado de los términos y condiciones del servicio, Zao advierte: “Para mejorar el producto y el servicio, y para poder ofrecerle información personalizada y anuncios, recogeremos datos sobre sus búsquedas, su teléfono móvil, la ubicación, y el historial de compras”.
En el tercer punto también informa de que se guardarán las imágenes del usuario. Eso sí, en el primer punto del segundo apartado promete no compartir toda esta información con terceros, “salvo que el usuario dé su permiso o sea requerido por ley”. Ese último precepto se puede entender como un "salvo que las autoridades lo pidan", y es constante en todos los servicios para móviles que se ofrecen en la segunda potencia mundial. Por eso, hay quienes, como Yu Lin, se despreocupan por completo: “En China no hay ningún tipo de privacidad, el Gobierno puede disponer de todos mis datos cuando quiera”, comenta esta joven Shanghainesa por WeChat. “Al menos, con Zhao me divierto”.
Hu Yuan también ha probado la aplicación y reconoce que lo ha pasado bien. “No es adictivo como Douyin -Tik-Tok fuera de China-, pero resulta divertido y da curiosidad utilizarlo en las diferentes opciones que ofrece. Mis redes sociales se han llenado de sus vídeos súbitamente y yo subiré los míos para echar unas risas. Pero creo que no durará mucho la moda. Yo borraré inmediatamente el programa, pero no sé si mis datos se los quedará la empresa”, comenta a EL PAÍS después de compartir con este periódico los clips que ha realizado. Los chinos pueden convertirse en cualquier famoso y creen hacerlo gratis. Pero quizá el precio sean sus datos.
En cualquier caso, Zao abre un debate que irá ganando intensidad según se vayan perfeccionando los algoritmos que permiten crear vídeos deep fake. Algunos son tan realistas que pueden pasar por reales, y suponen un paso más en la sofisticación de las noticias falsas. Hay ejemplos curiosos, como los de Donald Trump hablando mandarín de forma fluida, los de otros dirigentes mundiales diciendo cosas que nunca salieron de su boca, o los de personas anónimas que aparecen como virtuosos de habilidades que les son totalmente ajenas. Es evidente que, en un futuro no muy lejano, ni siquiera se podrá decir eso de "ver para creer".
https://elpais.com/tecnologia/2019/09/02/actualidad/1567433490_423816.html
#zao #privacidad
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
En cualquier caso, Zao abre un debate que irá ganando intensidad según se vayan perfeccionando los algoritmos que permiten crear vídeos deep fake. Algunos son tan realistas que pueden pasar por reales, y suponen un paso más en la sofisticación de las noticias falsas. Hay ejemplos curiosos, como los de Donald Trump hablando mandarín de forma fluida, los de otros dirigentes mundiales diciendo cosas que nunca salieron de su boca, o los de personas anónimas que aparecen como virtuosos de habilidades que les son totalmente ajenas. Es evidente que, en un futuro no muy lejano, ni siquiera se podrá decir eso de "ver para creer".
https://elpais.com/tecnologia/2019/09/02/actualidad/1567433490_423816.html
#zao #privacidad
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El País
La aplicación viral que te convierte en estrella, a cambio de tus datos
La aplicación Zao hace furor en China suplantando la imagen de todo tipo de famosos, pero se extiende la preocupación por los datos personales que recoge la empresa que la desarrolla
🇪🇸Facebook no solo recopila tus datos, también todas las librerías de tu móvil.
Un nuevo descubrimiento pone más en duda la aplicación de Facebook para Android: dicha app recopila los metadatos de todas las librerías del teléfono.
De red social omnipresente a ser el objetivo de las mayores dudas en torno a la privacidad, este es el resumen más notorio en lo que concierne a la evolución de Facebook. Los últimos escándalos no solo hicieron mella en la empresa, también en el resto de compañías que se dedican a las aplicaciones y servicios web; de ahí que la privacidad sea un elemento que cada vez posee más importancia.
Facebook no es el adalid de la privacidad, eso lo sabemos, pero tampoco lo son Google, Amazon o Twitter, por poner otros ejemplos. Aunque Facebook se empeña en mantener ocultas ciertas acciones que realizan sus aplicaciones, tal y como ha señalado Jane Manchun Wong, una conocida especialista en ingeniería inversa de las apps móviles.
Hasta ahora sabíamos que Facebook recopilaba nuestros datos personales, actividad en las aplicaciones y cualquier acción que realicemos en ellas. Nuestros gustos, edad, correos, teléfono… Con los últimos cambios sufridos por la red social podemos administrar en cierta manera todo lo que recopila la empresa, pero no un aspecto que descubrió Jane Manchun: la app de Facebook para Android accede a las librerías de los móviles donde está instalada y comprime los metadatos para subirlos a escondidas a sus servidores.
Facebook comprime y sube a sus servidores las librerías del móvil sin que haya forma de remediarlo
La aplicación de Facebook posee un comportamiento único en Android ya que solo en este sistema tiene el cometido de realizar una copia de los metadatos de las librerías del sistema. En sí no debería de ser peligroso ya que no entraña riesgo para el smartphone, pero no deja de ser sospechoso que esta acción se realice sin ningún tipo de autorización del usuario.
Una vez instalada la aplicación en un móvil Android, tanto da que sea descargada como que Facebook venga de serie en el smartphone, la app realiza un análisis de las librerías del sistema, comprime los metadatos y pasa a subir el archivo a los servidores de la empresa. Ese archivo comprimido se denomina «Global Library Collector» o recolector global de librerías (GLC). En él se incluyen los metadatos de las librerías, una información que define a cada teléfono y lo que tiene instalado; así como la compatibilidad con las aplicaciones o la integridad del sistema.
El verdadero problema del recolector global de librerías es que nadie sabe para qué sirve. Facebook aún no ha aclarado su cometido ni tampoco había especificado previamente este anómalo comportamiento de su aplicación. Además, que solo ocurra en Android levanta más sospechas: todos sabemos que nuestro sistema es más vulnerable a las acciones cometidas por las apps. La propia Facebook llevaba años aprovechándose de Android para recopilar más fácilmente los datos de sus usuarios.
Facebook no revela para qué sirve el GLC, tampoco ofrece opción alguna al usuario para que desactive esta opción. Esto atenta directamente contra la privacidad, por lo que no nos extrañaría que la Unión Europea tomara cartas en el asunto. Por más que el recolector global de librerías no implique un riesgo para el teléfono Facebook no debería saber qué tiene cada usuario en su móvil.
https://elandroidelibre.elespanol.com/2019/09/facebook-recopila-librerias-movil-android.html
#facebook #android #privacidad
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Un nuevo descubrimiento pone más en duda la aplicación de Facebook para Android: dicha app recopila los metadatos de todas las librerías del teléfono.
De red social omnipresente a ser el objetivo de las mayores dudas en torno a la privacidad, este es el resumen más notorio en lo que concierne a la evolución de Facebook. Los últimos escándalos no solo hicieron mella en la empresa, también en el resto de compañías que se dedican a las aplicaciones y servicios web; de ahí que la privacidad sea un elemento que cada vez posee más importancia.
Facebook no es el adalid de la privacidad, eso lo sabemos, pero tampoco lo son Google, Amazon o Twitter, por poner otros ejemplos. Aunque Facebook se empeña en mantener ocultas ciertas acciones que realizan sus aplicaciones, tal y como ha señalado Jane Manchun Wong, una conocida especialista en ingeniería inversa de las apps móviles.
Hasta ahora sabíamos que Facebook recopilaba nuestros datos personales, actividad en las aplicaciones y cualquier acción que realicemos en ellas. Nuestros gustos, edad, correos, teléfono… Con los últimos cambios sufridos por la red social podemos administrar en cierta manera todo lo que recopila la empresa, pero no un aspecto que descubrió Jane Manchun: la app de Facebook para Android accede a las librerías de los móviles donde está instalada y comprime los metadatos para subirlos a escondidas a sus servidores.
Facebook comprime y sube a sus servidores las librerías del móvil sin que haya forma de remediarlo
La aplicación de Facebook posee un comportamiento único en Android ya que solo en este sistema tiene el cometido de realizar una copia de los metadatos de las librerías del sistema. En sí no debería de ser peligroso ya que no entraña riesgo para el smartphone, pero no deja de ser sospechoso que esta acción se realice sin ningún tipo de autorización del usuario.
Una vez instalada la aplicación en un móvil Android, tanto da que sea descargada como que Facebook venga de serie en el smartphone, la app realiza un análisis de las librerías del sistema, comprime los metadatos y pasa a subir el archivo a los servidores de la empresa. Ese archivo comprimido se denomina «Global Library Collector» o recolector global de librerías (GLC). En él se incluyen los metadatos de las librerías, una información que define a cada teléfono y lo que tiene instalado; así como la compatibilidad con las aplicaciones o la integridad del sistema.
El verdadero problema del recolector global de librerías es que nadie sabe para qué sirve. Facebook aún no ha aclarado su cometido ni tampoco había especificado previamente este anómalo comportamiento de su aplicación. Además, que solo ocurra en Android levanta más sospechas: todos sabemos que nuestro sistema es más vulnerable a las acciones cometidas por las apps. La propia Facebook llevaba años aprovechándose de Android para recopilar más fácilmente los datos de sus usuarios.
Facebook no revela para qué sirve el GLC, tampoco ofrece opción alguna al usuario para que desactive esta opción. Esto atenta directamente contra la privacidad, por lo que no nos extrañaría que la Unión Europea tomara cartas en el asunto. Por más que el recolector global de librerías no implique un riesgo para el teléfono Facebook no debería saber qué tiene cada usuario en su móvil.
https://elandroidelibre.elespanol.com/2019/09/facebook-recopila-librerias-movil-android.html
#facebook #android #privacidad
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El Androide Libre
Facebook no solo recopila tus datos, también todas las librerías de tu móvil
Un nuevo descubrimiento pone más en duda la aplicación de Facebook para Android: dicha app recopila los metadatos de todas las librerías del teléfono.
'Deepfake face swap' app ZAO is making people afraid of the future
The 'deepfake-style face swap app' ZAO has climbed to the top of Android and iPhone download charts in recent weeks. As its popularity grew, so have privacy concerns on Chinese social media, and now, beyond.
👉🏼 Here's how it works:
In case you haven't heard, #ZAO is a Chinese app which completely blew up since Friday. Best application of 'Deepfake'-style AI facial replacement I've ever seen.
Here's an example of me as DiCaprio (generated in under 8 secs from that one photo in the thumbnail) 🤯 pic.twitter.com/1RpnJJ3wgT
— Allan Xia (@AllanXia) September 1, 2019
The sudden wide adoption of ZAO is an “intriguing development in a country where mass surveillance and facial recognition technology are prevalent,” writes Jake Newby at radiichina.com.
“Some social media platforms, including WeChat, have now started blocking ZAO videos,” Newby writes in an update to his story on Monday. “WeChat has done this before with popular rival short video apps.”
The app — developed by Momo, the same company behind popular Chinese dating app Tantan — became an overnight sensation after it began circulating on Friday evening. Hashtags related to the app quickly became some of the hottest on microblogging site Weibo, while the app rocketed up the iOS download charts. Chinese social media feeds quickly became filled with ZAO-produced videos from friends and contacts for many users.
The premise of the app is pretty simple: take a selfie and put yourself into your favorite movie or soap opera (chosen from a pre-selected list of clips). Cue users giving themselves starring roles in Leonardo DiCaprio’s filmography or uninvited guest appearances on Game of Thrones.
Yet the initial buzz around the app quickly gave way to headlines about privacy concerns as reporters from several major tech publications in China actually bothered to read the 6,000 character user agreement required to download ZAO. One clause in particular is causing consternation as it appears to give the app’s developers the global rights to use any imagery created on the app for free. Once a user has opted in, there doesn’t seem to be the right to revoke the agreement.
This story went viral pretty quickly, and ZAO “responded to the above complaints” by amending the user agreement, writes Newby in another update to the Radii piece:
The new agreement states that content generated on the app will now no longer be used for other purposes without the user’s prior consent. It also says that if a user deletes content on ZAO, this will be wiped from ZAO’s databases too, and injects a clause stating that users bear responsibility for having the authorization to use portraits in the app (thereby making the user culpable if someone’s photo is used without their permission). [via
👉🏼 Read more:
https://boingboing.net/2019/09/02/deepfake-face-swap-app-zao.html
#DeapFake #app #FaceSwap #ZAO
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
The 'deepfake-style face swap app' ZAO has climbed to the top of Android and iPhone download charts in recent weeks. As its popularity grew, so have privacy concerns on Chinese social media, and now, beyond.
👉🏼 Here's how it works:
In case you haven't heard, #ZAO is a Chinese app which completely blew up since Friday. Best application of 'Deepfake'-style AI facial replacement I've ever seen.
Here's an example of me as DiCaprio (generated in under 8 secs from that one photo in the thumbnail) 🤯 pic.twitter.com/1RpnJJ3wgT
— Allan Xia (@AllanXia) September 1, 2019
The sudden wide adoption of ZAO is an “intriguing development in a country where mass surveillance and facial recognition technology are prevalent,” writes Jake Newby at radiichina.com.
“Some social media platforms, including WeChat, have now started blocking ZAO videos,” Newby writes in an update to his story on Monday. “WeChat has done this before with popular rival short video apps.”
The app — developed by Momo, the same company behind popular Chinese dating app Tantan — became an overnight sensation after it began circulating on Friday evening. Hashtags related to the app quickly became some of the hottest on microblogging site Weibo, while the app rocketed up the iOS download charts. Chinese social media feeds quickly became filled with ZAO-produced videos from friends and contacts for many users.
The premise of the app is pretty simple: take a selfie and put yourself into your favorite movie or soap opera (chosen from a pre-selected list of clips). Cue users giving themselves starring roles in Leonardo DiCaprio’s filmography or uninvited guest appearances on Game of Thrones.
Yet the initial buzz around the app quickly gave way to headlines about privacy concerns as reporters from several major tech publications in China actually bothered to read the 6,000 character user agreement required to download ZAO. One clause in particular is causing consternation as it appears to give the app’s developers the global rights to use any imagery created on the app for free. Once a user has opted in, there doesn’t seem to be the right to revoke the agreement.
This story went viral pretty quickly, and ZAO “responded to the above complaints” by amending the user agreement, writes Newby in another update to the Radii piece:
The new agreement states that content generated on the app will now no longer be used for other purposes without the user’s prior consent. It also says that if a user deletes content on ZAO, this will be wiped from ZAO’s databases too, and injects a clause stating that users bear responsibility for having the authorization to use portraits in the app (thereby making the user culpable if someone’s photo is used without their permission). [via
techmeme.com]👉🏼 Read more:
https://boingboing.net/2019/09/02/deepfake-face-swap-app-zao.html
#DeapFake #app #FaceSwap #ZAO
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Privacy International study shows your mental health is for sale
A new study by Privacy International reveals how popular websites about depression in France, Germany and the UK share user data with advertisers, data brokers and large tech companies, while some depression test websites leak answers and test results with third parties. The findings raise serious concerns about compliance with European data protection and privacy laws.
👉🏼 Story
https://privacyintyqcroe.onion/long-read/3194/privacy-international-study-shows-your-mental-health-sale
👉🏼 Report
https://privacyintyqcroe.onion/report/3193/report-your-mental-health-sale
#privacy #study #report #DataBrokers #ourdata #why
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
A new study by Privacy International reveals how popular websites about depression in France, Germany and the UK share user data with advertisers, data brokers and large tech companies, while some depression test websites leak answers and test results with third parties. The findings raise serious concerns about compliance with European data protection and privacy laws.
👉🏼 Story
https://privacyintyqcroe.onion/long-read/3194/privacy-international-study-shows-your-mental-health-sale
👉🏼 Report
https://privacyintyqcroe.onion/report/3193/report-your-mental-health-sale
#privacy #study #report #DataBrokers #ourdata #why
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
🇪🇸 La escuela que usa reconocimiento facial para controlar la asistencia.
Multado con 18.500 euros un colegio sueco por utilizar tecnología facial, pese a contar con el consentimiento de los estudiantes.
Controlar la asistencia de los alumnos en colegios e institutos es una de las prioridades de los centros de enseñanza. Frente a las tradicionales listas de asistencia, hay escuelas que ya experimentan con la tecnología para llevar un seguimiento al respecto. Pero no todo vale a la hora de utilizar de nuevas herramientas. Una escuela de secundaria en el norte de Suecia ha sido multada con 200.000 coronas suecas —unos 18.500 euros— por realizar una prueba piloto con cámaras con reconocimiento facial para monitorear a 22 alumnos de una clase del centro, según informa el Comité Europeo de Protección de Datos.
La prueba se realizó durante tres semanas en un centro de la localidad de Skellefteå. Pese a que los estudiantes habían dado su consentimiento, la Agencia de Protección de Datos (DPA) sueca ha concluido que este proyecto piloto viola varios artículos del reglamento europeo de protección de datos (RGPD). El organismo indica que el consentimiento no es una vía legal en este caso porque “hay un desequilibrio claro entre los dueños de los datos y quién controla esta información ahora” y porque los alumnos están en una situación de dependencia con respecto a la dirección del centro.
En Suecia, las autoridades públicas pueden recibir una multa máxima de 10 millones de coronas suecas —aproximadamente 1 millón de euros—. Esta es la primera multa en relación al RGPD emitida por la Agencia de Protección de Datos sueca, que sostiene que la escuela ha procesado datos biométricos sensibles de manera ilegal y no ha realizado una evaluación de impacto adecuada. El centro, según la DPA, debería haber consultado previamente con el organismo si podía llevar a cabo el proyecto.
El uso de reconocimiento facial ha levantado polémica en los últimos años entre organizaciones de defensas de los derechos. Hay lugares que ya han comenzado a legislar al respecto. San Francisco se convirtió en mayo en la primera ciudad en Estados Unidos en prohibir el uso de la tecnología de reconocimiento facial.
En Europa, el Reglamento General de Protección de Datos (RGPD) prevé una protección especial a los datos biométricos. Se prohíbe de forma general que se puedan tratar datos biométricos, aunque hay algunas excepciones en las que los sistemas de reconocimiento facial sí pueden ser utilizados. Por ejemplo, cuando lo usan cuerpos policiales en la persecución de delitos y terroristas a nivel internacional o cuando el afectado ha dado el consentimiento y el tratamiento persigue una finalidad lícita.
Otras escuelas
Suecia no es el único país en el que se ha utilizado esta tecnología en centros educativos. Mientras que algunos centros europeos se plantean su uso, varias escuelas de China también cuentan con sistemas de reconocimiento facial en sus puertas para controlar la asistencia de los alumnos. Y van mucho más allá. Utilizan uniformes inteligentes con el fin de combatir el absentismo escolar, según el diario oficial Global Times. La prenda permite a los profesores detectar la ubicación de los alumnos o activar una alarma cuando un estudiante se queda dormido en clase.
En Estados Unidos el distrito escolar de la ciudad de Lockport, en Nueva York, ha comenzado a implementar un sistema de reconocimiento facial, según The Guardian. En este caso, esta tecnología se utiliza para garantizar la seguridad en el centro. La probabilidad de morir a tiros en Estados Unidos es 24 veces mayor que en España y 100 veces mayor que en Japón.
Multado con 18.500 euros un colegio sueco por utilizar tecnología facial, pese a contar con el consentimiento de los estudiantes.
Controlar la asistencia de los alumnos en colegios e institutos es una de las prioridades de los centros de enseñanza. Frente a las tradicionales listas de asistencia, hay escuelas que ya experimentan con la tecnología para llevar un seguimiento al respecto. Pero no todo vale a la hora de utilizar de nuevas herramientas. Una escuela de secundaria en el norte de Suecia ha sido multada con 200.000 coronas suecas —unos 18.500 euros— por realizar una prueba piloto con cámaras con reconocimiento facial para monitorear a 22 alumnos de una clase del centro, según informa el Comité Europeo de Protección de Datos.
La prueba se realizó durante tres semanas en un centro de la localidad de Skellefteå. Pese a que los estudiantes habían dado su consentimiento, la Agencia de Protección de Datos (DPA) sueca ha concluido que este proyecto piloto viola varios artículos del reglamento europeo de protección de datos (RGPD). El organismo indica que el consentimiento no es una vía legal en este caso porque “hay un desequilibrio claro entre los dueños de los datos y quién controla esta información ahora” y porque los alumnos están en una situación de dependencia con respecto a la dirección del centro.
En Suecia, las autoridades públicas pueden recibir una multa máxima de 10 millones de coronas suecas —aproximadamente 1 millón de euros—. Esta es la primera multa en relación al RGPD emitida por la Agencia de Protección de Datos sueca, que sostiene que la escuela ha procesado datos biométricos sensibles de manera ilegal y no ha realizado una evaluación de impacto adecuada. El centro, según la DPA, debería haber consultado previamente con el organismo si podía llevar a cabo el proyecto.
El uso de reconocimiento facial ha levantado polémica en los últimos años entre organizaciones de defensas de los derechos. Hay lugares que ya han comenzado a legislar al respecto. San Francisco se convirtió en mayo en la primera ciudad en Estados Unidos en prohibir el uso de la tecnología de reconocimiento facial.
En Europa, el Reglamento General de Protección de Datos (RGPD) prevé una protección especial a los datos biométricos. Se prohíbe de forma general que se puedan tratar datos biométricos, aunque hay algunas excepciones en las que los sistemas de reconocimiento facial sí pueden ser utilizados. Por ejemplo, cuando lo usan cuerpos policiales en la persecución de delitos y terroristas a nivel internacional o cuando el afectado ha dado el consentimiento y el tratamiento persigue una finalidad lícita.
Otras escuelas
Suecia no es el único país en el que se ha utilizado esta tecnología en centros educativos. Mientras que algunos centros europeos se plantean su uso, varias escuelas de China también cuentan con sistemas de reconocimiento facial en sus puertas para controlar la asistencia de los alumnos. Y van mucho más allá. Utilizan uniformes inteligentes con el fin de combatir el absentismo escolar, según el diario oficial Global Times. La prenda permite a los profesores detectar la ubicación de los alumnos o activar una alarma cuando un estudiante se queda dormido en clase.
En Estados Unidos el distrito escolar de la ciudad de Lockport, en Nueva York, ha comenzado a implementar un sistema de reconocimiento facial, según The Guardian. En este caso, esta tecnología se utiliza para garantizar la seguridad en el centro. La probabilidad de morir a tiros en Estados Unidos es 24 veces mayor que en España y 100 veces mayor que en Japón.
Desde el inicio del siglo XXI se han perpetrado más de 200 tiroteos en institutos y colegios de primaria y secundaria de Estados Unidos a los que han estado expuestos algo más de 200.000 estudiantes, según información recabada por el diario The Washington Post y por este periódico. El último sistema mencionado está diseñado para detectar los rostros de personas expulsadas o suspendidas de las escuelas de Lockport, agresores sexuales u otras personas que puedan suponer una amenaza para el centro.
https://elpais.com/tecnologia/2019/08/30/actualidad/1567157371_609647.html
#privacidad #suecia #colegio #multa
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
https://elpais.com/tecnologia/2019/08/30/actualidad/1567157371_609647.html
#privacidad #suecia #colegio #multa
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
El País
La escuela que usa reconocimiento facial para controlar la asistencia
Multado con 18.500 euros un colegio sueco por utilizar tecnología facial, pese a contar con el consentimiento de los estudiantes
Phone numbers of 420 million Facebook users discovered on the net
Facebook had already admitted last year that the function to search for friends by telephone number was misused for data tapping. Now a database with entries for hundreds of millions of users has been discovered on the Internet.
Phone numbers of around 420 million Facebook users were openly accessible on the Internet. The database seems to have been compiled through the misuse of a function to search for friends by telephone number. Facebook declared on Wednesday that it was old data. They were probably collected before the online network last year switched off the possibility of finding acquaintances with the help of their telephone number. Facebook had no evidence that accounts had been hacked.
An IT security researcher discovered the file with the telephone numbers and the corresponding Facebook identification number and pointed this out to the technology blog "TechCrunch". It had been accessible unencrypted and had since been removed. It is unclear who created and uploaded the list for what purpose. Among the telephone numbers were 133 million Facebook users from the USA - as well as 13 million from Great Britain and more than 50 million from Vietnam. In some cases, it also contained information about users' names and sex.
Criminals could hijack profiles
The danger with such data is that online criminals could use it to reset account passwords and hijack profiles.
Facebook had already admitted in April 2018 that the search for phone numbers by friends was being misused to tap data and turned it off. Although the phone numbers were not openly visible, they could possibly be retrieved on a large scale via automated queries - so-called "scraping". This violated the Facebook rules, but was technically possible. Facebook is also struggling with the scraping of publicly accessible profile data on the Instagram photo platform.
https://techcrunch.com/2019/09/04/facebook-phone-numbers-exposed/
https://t3n.de/news/telefonnummern-420-millionen-netz-1194823/
#DeleteFacebook #dataleak #userdata #privacy #phonenumbers
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN
Facebook had already admitted last year that the function to search for friends by telephone number was misused for data tapping. Now a database with entries for hundreds of millions of users has been discovered on the Internet.
Phone numbers of around 420 million Facebook users were openly accessible on the Internet. The database seems to have been compiled through the misuse of a function to search for friends by telephone number. Facebook declared on Wednesday that it was old data. They were probably collected before the online network last year switched off the possibility of finding acquaintances with the help of their telephone number. Facebook had no evidence that accounts had been hacked.
An IT security researcher discovered the file with the telephone numbers and the corresponding Facebook identification number and pointed this out to the technology blog "TechCrunch". It had been accessible unencrypted and had since been removed. It is unclear who created and uploaded the list for what purpose. Among the telephone numbers were 133 million Facebook users from the USA - as well as 13 million from Great Britain and more than 50 million from Vietnam. In some cases, it also contained information about users' names and sex.
Criminals could hijack profiles
The danger with such data is that online criminals could use it to reset account passwords and hijack profiles.
Facebook had already admitted in April 2018 that the search for phone numbers by friends was being misused to tap data and turned it off. Although the phone numbers were not openly visible, they could possibly be retrieved on a large scale via automated queries - so-called "scraping". This violated the Facebook rules, but was technically possible. Facebook is also struggling with the scraping of publicly accessible profile data on the Instagram photo platform.
https://techcrunch.com/2019/09/04/facebook-phone-numbers-exposed/
https://t3n.de/news/telefonnummern-420-millionen-netz-1194823/
#DeleteFacebook #dataleak #userdata #privacy #phonenumbers
📡@cRyPtHoN_INFOSEC_DE
📡@cRyPtHoN_INFOSEC_EN
📡@cRyPtHoN_INFOSEC_ES
📡@FLOSSb0xIN