Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fakturo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/clients/client1/web60/web/wp-includes/functions.php on line 6121
Sin categoría – Page 11 – Pruebas 2

'Deficiencias' que rompieron el sistema de comentarios de la FCC en la lucha por la neutralidad de la red detallada por GAO

Hoy marca la conclusión de una saga de años que comenzó cuando John Oliver hizo un segmento sobre la neutralidad de la red que era tan popular que puso de rodillas el sistema de comentarios de la FCC. Dos años más tarde, finalmente se acerca a abordar todas las cuestiones que se plantean en una investigación de la Oficina General de Rendición de Cuentas.

El informe cubre numerosos problemas de ciberseguridad y TI, algunos de los cuales la FCC abordó rápidamente, algunos no tan rápidamente y otros en los que todavía está trabajando.

"El informe de la GAO de hoy deja claro lo que sabíamos todo el tiempo: el sistema de la FCC para recopilar la opinión pública tiene problemas", dijo a TechCrunch la comisaria Jessica Rosenworcel. "La agencia necesita arreglar completamente este lío porque esta es la forma en que se supone que la FCC debe tomar las aportaciones del público. Pero como demuestra este informe, tenemos un trabajo real que hacer".

Esta es la línea de tiempo básica de los acontecimientos, que parecen hace tanto tiempo:

Entonces ha sido bastante tranquilo básicamente hasta hoy, cuando el informe solicitado en 2017 fue publicado públicamente. Una versión con información confidencial (como configuraciones exactas de software y otra información técnica) se distribuyó internamente en septiembre, luego se revisó para el lanzamiento de hoy.

El informe final no es una gran bomba, ya que gran parte de ella se ha telegrafiado con antelación. Es una colección de críticas de un sistema anticuado con seguridad inadecuada y otros fallos que podrían haber sido dirigidos a prácticamente cualquier agencia federal, entre las cuales las prácticas de ciberseguridad son notoriamente pobres.

La investigación indica que la FCC, por ejemplo, no implementó consistentemente controles de seguridad y acceso, cifró datos confidenciales, actualizó o configuró correctamente sus servidores, detectó o registró eventos de ciberseguridad, etc. No siempre fue un desastre (incluso los departamentos de TI bien dirigidos no siempre siguen las mejores prácticas), pero obviamente algunas de estas deficiencias y cortes en las esquinas llevaron a problemas serios como eCFS ser abrumado.

Más importante aún, de las 136 recomendaciones formuladas en el informe de septiembre, 85 se han aplicado plenamente ahora, 10 parcialmente, y el resto está en camino de serlo.

Esto no debe ser tomado en serio que la FCC ha esperado todo este tiempo para actualizar sus comentarios y otros sistemas. De hecho, estaba haciendo mejoras casi inmediatamente después del evento en mayo de 2017, pero se negó a describirlas. Estas son algunas de las mejoras enumeradas en el informe de la GAO:

El representante Frank Pallone (D-NJ), que ha dogged la FCC en este tema desde el principio, emitió la siguiente declaración:

Solicité este informe porque estaba claro, después de la debacle del período de derogación de la neutralidad de la red, que las prácticas de ciberseguridad de la FCC habían fracasado. Después de más de dos años de investigación, GAO está de acuerdo y encontró una preocupante falta de seguridad que pone en riesgo los sistemas de información de la Comisión… Hasta que la FCC implemente todas las recomendaciones restantes, sus sistemas seguirán siendo vulnerables a fallas y uso indebido.

Puede leer el informe final de la GAO aquí.

'Недостатки', которые сломали FCC комментируя систему в борьбе сетевого нейтралитета подробно ГАО

Сегодня знаменует собой завершение многолетней саги, которая началась, когда Джон Оливер сделал сегмент на Чистая нейтралитета, который был настолько популярен, что он принес FCC комментарий системы на колени. Два года спустя она, наконец, близка к решению всех вопросов, возбужденных в ходе расследования, проведенного Управлением общей отчетности.

Доклад охватывает многочисленные вопросы кибербезопасности и ИТ, некоторые из которых FCC рассмотрел быстро, некоторые не так быстро, а некоторые он все еще работает.

"Сегодняшний доклад ГАО ясно, что мы знали все вместе: fcc системы сбора общественного вклада имеет проблемы", комиссар Джессика Rosenworcel сказал TechCrunch. "Агентство должно полностью исправить этот беспорядок, потому что это путь FCC должен принимать вклад от общественности. Но, как показывает этот доклад, нам предстоит проделать реальную работу».

Вот основная хронология событий, которые кажутся так давно:

Тогда это было довольно тихо в основном до сегодняшнего дня, когда доклад просил в 2017 году был публично выпущен. Версия с конфиденциальной информацией (например, точные конфигурации программного обеспечения и другая техническая информация) была внутренне распространена в сентябре, а затем пересмотрена для сегодняшнего выпуска.

Окончательный доклад не является большой бомбой, так как большая его часть была телеграфирована заранее. Это набор критических замечаний к устаревшей системе с неадекватной безопасностью и другими недостатками, которые могли быть направлены практически на любое федеральное агентство, среди которых практика кибербезопасности, как известно, бедна.

Расследование показывает, что FCC, например, не всегда осуществляла элементы управления безопасностью и доступом, шифровал конфиденциальные данные, обновляла или правильно настраивала свои серверы, обнаруживала или регистрировала события кибербезопасности и так далее. Это не всегда было катастрофой (даже хорошо управляемые ИТ-отделы не всегда следуют передовой практике), но, очевидно, некоторые из этих недостатков и сократить углы привели к серьезным вопросам, как ECFS время перегружены.

Что еще более важно, из 136 рекомендаций, вынесенных в сентябрьском докладе, 85 из них в настоящее время полностью выполнены, причем 10 из них находятся на пути к этому.

Это не должно означать, что FCC ждал все это время, чтобы обновить свои комментарии и другие системы. На самом деле он вносивал улучшения почти сразу после события в мае 2017 года, но отказался их описать. Вот некоторые из улучшений, перечисленных в докладе ГАО:

Представитель Фрэнк Паллоне (D-NJ), который упорно FCC по этому вопросу с самого начала, выступил со следующим заявлением:

Я запросил этот доклад, потому что было ясно, после чистого нейтралитета отменить комментарий период фиаско, что FCC в кибербезопасности практики не удалось. После более чем двух лет расследования, ГАО соглашается и обнаружила тревожное отсутствие безопасности, что ставит под угрозу информационные системы Комиссии … До тех пор, пока FCC не выполнит все оставшиеся рекомендации, ее системы будут оставаться уязвимыми для сбоев и злоупотреблений.

Вы можете прочитать окончательный отчет GAO здесь.

'Deficiências' que quebraram sistema de comentários da FCC em luta contra a neutralidade da rede detalhada pelo GAO

Hoje marca a conclusão de uma saga de anos que começou quando John Oliver fez um segmento sobre Neutralidade da Rede que era tão popular que colocou o sistema de comentários da FCC de joelhos. Dois anos depois, está finalmente perto de abordar todas as questões trazidas em uma investigação do Escritório Geral de Prestação de Contas.

O relatório abrange numerosos problemas de segurança cibernética e TI, alguns dos quais a FCC abordou rapidamente, alguns não tão rapidamente e alguns que ainda estão trabalhando.

"O relatório do GAO de hoje deixa claro o que sabíamos o tempo todo: o sistema da FCC para coletar informações públicas tem problemas", disse a comissária Jessica Rosenworcel ao TechCrunch. "A agência precisa consertar totalmente essa bagunça porque é assim que a FCC deve receber a contribuição do público. Mas, como este relatório demonstra, temos trabalho real a fazer."

Aqui está a linha do tempo básica dos eventos, que parecem ter sido há muito tempo:

Então tem sido muito tranquilo basicamente até hoje, quando o relatório solicitado em 2017 foi divulgado publicamente. Uma versão com informações confidenciais (como configurações exatas de software e outras informações técnicas) foi divulgada internamente em setembro, depois revisada para o lançamento de hoje.

O relatório final não é uma grande bomba, uma vez que grande parte dele foi telegrafado antes do tempo. É uma coleção de críticas a um sistema desatualizado com segurança inadequada e outras falhas que poderiam ter sido direcionadas a praticamente qualquer agência federal, entre as quais as práticas de cibersegurança são notoriamente pobres.

A investigação indica que a FCC, por exemplo, não implementou consistentemente controles de segurança e acesso, criptografou dados confidenciais, atualizou ou configurou corretamente seus servidores, detectou ou registrou eventos de cibersegurança, e assim por diante. Nem sempre foi um desastre (mesmo os departamentos de TI nem sempre seguem as melhores práticas), mas, obviamente, algumas dessas deficiências e cortes levaram a questões sérias como o ECFS sendo sobrecarregado.

Mais importante, das 136 recomendações feitas no relatório de setembro, 85 foram totalmente implementadas agora, 10 parcialmente, e o resto está no caminho certo para ser assim.

Isso não deve ser levado a dizer que a FCC esperou o tempo todo para atualizar seus comentários e outros sistemas. Na verdade, ele estava fazendo melhorias quase imediatamente após o evento em maio de 2017, mas se recusou a descrevê-las. Aqui estão algumas das melhorias listadas no relatório do GAO:

O representante Frank Pallone (D-NJ), que tem pressionado a FCC sobre esta questão desde o início, emitiu a seguinte declaração:

Solicitei este relatório porque ficou claro, após o fracasso do período de revogação da neutralidade da rede, que as práticas de segurança cibernética da FCC haviam falhado. Depois de mais de dois anos de investigação, o GAO concorda e encontrou uma preocupante falta de segurança que coloca os sistemas de informação da Comissão em risco… Até que a FCC implemente todas as recomendações restantes, seus sistemas permanecerão vulneráveis a falhas e uso indevido.

Você pode ler o relatório final do GAO aqui.

Matt Ocko saw COVID-19 coming: Here’s what his venture firm is doing about it

Matt Ocko, co-founder of venture firm Data Collective (DCVC), was among a small group of VCs viewed as alarmists when they began tweeting about the coronavirus’s imminent appearance in the U.S. back in January.

In retrospect, those individuals were prescient, so we spoke with Ocko last week about why he was so certain the U.S. was about to get walloped by COVID-19, and asked how some of the startups in DCVC’s portfolio — which has long had a strong biotech focus — are trying to get us back to a state of normalcy.

This conversation has been edited for length.

TechCrunch: You were tweeting about COVID-19 back in January; I almost canceled a flight out of San Francisco because of your [expressed concern about a flight bound for SFO from Wuhan, China]. What did you see that the rest of us missed?

Matt Ocko: My family has been working with the Chinese government at a reasonably high level since the late 1970s, starting with my dad, and I kind of grew up in that environment. And at a relatively young age, as a professional [in the 1990s], I started pro bono helping my dad, who’s a Chinese legal expert, on things like constructing the laws around China’s Nasdaq equivalent, its stock markets, the joint dollar-renminbi investment legislation, advice on technology development and venture capital development.

I’m not an anti-China hawk by any means. But I do have an understanding of some of the idiosyncrasies of Chinese culture reflected in its government, the same way every country has its idiosyncrasies.

[In China’s case], it’s a focus on face and reputation and extreme sensitivity to negative perception or shame or humiliation at every level of government and culture. And so there’s [an] unfortunate trend — and not a universal one — for people to manage upwards, especially in the government, and tell their higher-ups what they want to hear to avoid shame, to avoid the loss of reputation and to kick the can down the road or hope that circumstances on the ground change favorably in the face of denial or equivocation.

Silicon Valley needs a new approach to studying ethics now more than ever

Next month, Apple and Google will unveil features to enable contact tracing on iOS and Android to identify people who have had contact with someone who tests positive for the novel coronavirus.

Security experts have been quick to point out the possible dangers, including privacy risks like revealing identities of COVID-19-positive users, helping advertisers track them or falling prey to false positives from trolls.

These are fresh concerns in familiar debates about tech’s ethics. How should technologists think about the trade-off between the immediate need for public health surveillance and individual privacy? And misformation and free speech? Facebook and other platforms are playing a much more active role than ever in assessing the quality of information: promoting official information sources prominently and removing some posts from users defying social distancing.

As the pandemic spreads and, along with it, the race to develop new technologies accelerates, it’s more critical than ever that technology finds a way to fully examine these questions. Technologists today are ill-equipped for this challenge: striking healthy balances between competing concerns — like privacy and safety — while explaining their approach to the public.

Over the past few years, academics have worked to give students ways to address the ethical dilemmas technology raises. Last year, Stanford announced a new (and now popular) undergraduate course on “Ethics, Public Policy, and Technological Change,” taught by faculty from philosophy, as well as political and computer science. Harvard, MIT, UT Austin and others teach similar courses.

If the only students are future technologists, though, solutions will lag. If we want a more ethically knowledgeable tech industry today, we need ethical study for tech practitioners, not just university students.

To broaden this teaching to tech practitioners, our venture fund, Bloomberg Beta, agreed to host the same Stanford faculty for an experiment. Based on their undergraduate course, could we design an educational experience for senior people who work across the tech sector? We adapted the content (incorporating real-world dilemmas), structure and location of the class, creating a six-week evening course in San Francisco. A week after announcing the course, we received twice as many applications as we could accommodate.

We selected a diverse group of students in every way we could manage, who all hold responsibility in tech. They told us that when they faced an ethical dilemma at work, they lacked a community to which to turn — some confided in friends or family, others revealed they looked up answers on the internet. Many felt afraid to speak freely within their companies. Despite several company-led ethics initiatives, including worthwhile ones to appoint chief ethics officers and Microsoft and IBM’s principles for ethical AI, the students in our class told us they had no space for open and honest conversations about tech’s behavior.

If we want a more ethically knowledgeable tech industry today, we need ethical study for tech practitioners, not just university students.

Like undergraduates, our students wanted to learn from both academics and industry leaders. Each week featured experts like Marietje Schaake, former Member of the European Parliament from the Netherlands, who debated real issues, from data privacy to political advertising. The professors facilitated discussions, encouraging our students to discuss multiple, often opposing views, with our expert guests.

Over half of the class came from a STEM background and had missed much explicit education in ethical frameworks. Our class discussed principles from other fields, like medical ethics, including the physician’s guiding maxim (“first, do no harm”) in the context of designing new algorithms. Texts from the world of science fiction, like “The Ones Who Walk Away from Omelas” by Ursula K. Le Guin, also offered ways to grapple with issues, leading students to evaluate how to collect and use data responsibly.

The answers to the values-based questions we explored (such as the trade-offs between misinformation and free speech) didn’t converge on clear “right” or “wrong” answers. Instead, participants told us that the discussions were crucial for developing skills to more effectively check their own biases and make informed decisions. One student said:

After walking through a series of questions, thought experiments or discussion topics with the professors, and thinking deeply about each of the subtending issues, I often ended up with the opposite positions to what I initially believed.

When shelter-in-place meant the class could no longer meet, participants reached out within a week to request virtual sessions — craving a forum to discuss real-time events with their peers in a structured environment. After our first virtual session examining how government, tech and individuals have responded to COVID-19, one participant remarked: “There feels like so much more good conversation to come on the questions, what can we do, what should we do, what must we do?”

Tech professionals seem to want ways to engage with ethical learning — the task now is to provide more opportunities. We plan on hosting another course this year and are looking at ways to provide an online version, publishing the materials.

COVID-19 won’t be the last crisis where we rely on technology for solutions, and need them immediately. If we want more informed discussions about tech’s behavior, and we want the people who make choices to enter these crises prepared to think ethically, we need to start training people who work in tech to think ethically.


To allow students to explore opposing, uncomfortable viewpoints and share their personal experiences, class discussions were confidential. I’ve received explicit permission to share any insights from students here.

Matt Ocko vio venir a COVID-19: Esto es lo que su empresa de empresa está haciendo al respecto

Matt Ocko, cofundador de la firma de riesgo Data Collective (DCVC), fue uno de un pequeño grupo de VCs vistos como alarmistas cuando comenzaron a tuitear sobre la inminente aparición del coronavirus en los Estados Unidos. en enero.

En retrospectiva, esos individuos eran prescientes, así que hablamos con Ocko la semana pasada sobre por qué estaba tan seguro de los EE.UU. estaba a punto de ser engañados por COVID-19, y preguntó cómo algunas de las startups en la cartera de DCVC, que durante mucho tiempo ha tenido un fuerte enfoque biotecnológico, están tratando de que volvamos a un estado de normalidad.

Esta conversación se ha editado para la duración.

TechCrunch: Estabas tuiteando sobre COVID-19 en enero; Casi cancelé un vuelo desde San Francisco debido a su [expressed concern about a flight bound for SFO from Wuhan, China]. ¿Qué viste que el resto de nosotros perdimos?

Matt Ocko: Mi familia ha estado trabajando con el gobierno chino a un nivel razonablemente alto desde finales de la década de 1970, empezando por mi padre, y yo crecí en ese ambiente. Y a una edad relativamente joven, como profesional, c[in the 1990s]omencé a ayudar pro bono a mi padre, que es un experto legal chino, en cosas como construir las leyes en torno al equivalente Nasdaq de China, sus mercados bursátiles, la legislación conjunta de inversión dólar-renminbi, asesoramiento en desarrollo tecnológico y desarrollo de capital de riesgo.

No soy un halcón anti-China de ninguna manera. Pero tengo una comprensión de algunas de las idiosincrasias de la cultura china reflejadas en su gobierno, de la misma manera que cada país tiene su idiosincrasia.

[In China’s case], es un enfoque en la cara y la reputación y la sensibilidad extrema a la percepción negativa o la verguenza o humillación en todos los niveles del gobierno y la cultura. Así que hay una [an]tendencia desafortunada —y no universal— para que la gente se gestione hacia arriba, especialmente en el gobierno, y les diga a sus superiores lo que quieren oír para evitar la verguenza, evitar la pérdida de reputación y patear la lata por el camino o la esperanza de que las circunstancias sobre el terreno cambien favorablemente frente a la negación o la equivocación.

Мэтт Окко увидел COVID-19 ближайшие: Вот что его венчурная фирма делает об этом

Мэтт Окко, соучредитель венчурной фирмы Data Collective (DCVC), был среди небольшой группы венчурных компаний, которые считались паникерами, когда они начали чирикать о предстоящем появлении коронавируса в США. еще в январе.

Оглядываясь назад, эти люди были пророческими, поэтому мы говорили с Ocko на прошлой неделе о том, почему он был так уверен в США. был готов получить walloped по COVID-19, и спросил, как некоторые из стартапов в портфеле DCVC – который уже давно сильный биотехнологический фокус – пытаются вернуть нас к нормальной жизни.

Этот разговор был отредактирован для длины.

TechCrunch: Вы чирикал о COVID-19 еще в январе; Я почти отменил рейс из Сан-Франциско из-за вашего [expressed concern about a flight bound for SFO from Wuhan, China]. Что вы видели, что остальные из нас пропустили?

Мэтт Окко: Моя семья работает с китайским правительством на достаточно высоком уровне с конца 1970-х годов, начиная с моего отца, и я как бы вырос в этой среде. И в относительно молодом возрасте, как профессионал, я [in the 1990s]начал безвозмездно помогать моему отцу, который китайский эксперт по правовым вопросам, на такие вещи, как строительство законов вокруг эквивалента Nasdaq Китая, его фондовых рынков, совместного доллара юаня инвестиционного законодательства, консультации по развитию технологий и венчурного капитала развития.

Я не антикитайский ястреб с помощью любых средств. Но я имею вникание некоторых из особенностей китайской культуры отраженной в своем правительстве, такой же путь каждая страна имеет свои особенности.

[In China’s case], это акцент на лицо и репутацию и крайнюю чувствительность к негативному восприятию или стыда или унижения на всех уровнях власти и культуры. И поэтому есть [an]печальная тенденция – а не универсальный – для людей, чтобы управлять вверх, особенно в правительстве, и рассказать своим высшим ups, что они хотят услышать, чтобы избежать стыда, чтобы избежать потери репутации и удар может вниз по дороге или надеемся, что обстоятельства на местах изменить благоприятно перед лицом отрицания или двусмысленности.

Silicon Valley necesita un nuevo enfoque para estudiar ética ahora más que nunca

El próximo mes, Apple y Google darán a conocer funciones para permitir el rastreo de contactos en iOS y Android para identificar a las personas que han tenido contacto con alguien que da positivo por el nuevo coronavirus.

Los expertos en seguridad se han apresurado a señalar los posibles peligros, incluidos los riesgos de privacidad como revelar identidades de usuarios COVID-19 positivos, ayudar a los anunciantes a rastrearlos o caer presa de falsos positivos de los trolls.

Estas son nuevas preocupaciones en debates familiares sobre la ética tecnológica. ¿Cómo deben pensar los tecnólogos sobre el equilibrio entre la necesidad inmediata de vigilancia de la salud pública y la privacidad individual? ¿Y la deformación y la libertad de expresión? Facebook y otras plataformas están desempeñando un papel mucho más activo que nunca en la evaluación de la calidad de la información: promover las fuentes de información oficiales de manera prominente y eliminar algunas publicaciones de los usuarios que desafían el distanciamiento social.

A medida que la pandemia se propaga y, junto con ella, la carrera por desarrollar nuevas tecnologías se acelera, es más importante que nunca que la tecnología encuentre una manera de examinar plenamente estas preguntas. Los tecnólogos de hoy en día no están bien equipados para este desafío: lograr equilibrios saludables entre las preocupaciones de la competencia, como la privacidad y la seguridad, al tiempo que explican su enfoque al público.

En los últimos años, los académicos han trabajado para dar a los estudiantes maneras de abordar los dilemas éticos que plantea la tecnología. El año pasado, Stanford anunció un nuevo (y ahora popular) curso de pregrado sobre "Etica, Políticas Públicas y Cambio Tecnológico", impartido por profesores de filosofía, así como ciencias políticas e informáticas. Harvard, MIT, UT Austin y otros imparten cursos similares.

Sin embargo, si los únicos estudiantes son futuros tecnólogos, las soluciones se relagranrán. Si queremos una industria tecnológica más éticamente bien experta hoy en día, necesitamos un estudio ético para los profesionales de la tecnología, no solo para los estudiantes universitarios.

Para ampliar esta enseñanza a los profesionales de la tecnología, nuestro fondo de riesgo, Bloomberg Beta, acordó acoger la misma facultad de Stanford para un experimento. Basándonos en su curso de pregrado, ¿podríamos diseñar una experiencia educativa para personas de la tercera edad que trabajan en todo el sector tecnológico? Adaptamos el contenido (incorporando dilemas del mundo real), estructura y ubicación de la clase, creando un curso nocturno de seis semanas en San Francisco. Una semana después de haber anuncio el curso, recibimos el doble de solicitudes que pudimos acomodar.

Seleccionamos un grupo diverso de estudiantes en todos los aspectos que pudimos administrar, que todos tienen la responsabilidad en la tecnología. Nos dijeron que cuando se enfrentaban a un dilema ético en el trabajo, carecían de una comunidad a la que recurrir: algunos confiaban en amigos o familiares, otros revelaron que buscaban respuestas en Internet. Muchos tenían miedo de hablar libremente dentro de sus empresas. A pesar de varias iniciativas de ética dirigidas por la empresa, incluidas las que valen la pena nombrar a los directores de ética y los principios de Microsoft e IBM para la IA ética, los estudiantes de nuestra clase nos dijeron que no tenían espacio para conversaciones abiertas y honestas sobre el comportamiento de la tecnología.

Si queremos una industria tecnológica más éticamente bien experta hoy en día, necesitamos un estudio ético para los profesionales de la tecnología, no solo para los estudiantes universitarios.

Al igual que los estudiantes de pregrado, nuestros estudiantes querían aprender tanto de académicos como de líderes de la industria. Cada semana contó con expertos como Marietje Schaake, ex miembro del Parlamento Europeo de los Países Bajos, que debatió cuestiones reales, desde la privacidad de los datos hasta la publicidad política. Los profesores facilitaron las discusiones, animando a nuestros estudiantes a discutir múltiples puntos de vista, a menudo opuestos, con nuestros invitados expertos.

Más de la mitad de la clase provenía de un origen STEM y había perdido mucha educación explícita en marcos éticos. Nuestra clase discutió principios de otros campos, como la ética médica, incluyendo la máxima guía del médico ("primero, no hacer daño") en el contexto del diseño de nuevos algoritmos. Textos del mundo de la ciencia ficción, como "The Ones Who Walk Away from Omelas" de Ursula K. Le Guin, también ofrecieron formas de lidiar con problemas, lo que llevó a los estudiantes a evaluar cómo recopilar y usar los datos de manera responsable.

Las respuestas a las preguntas basadas en valores que exploramos (como las compensaciones entre la desinformación y la libertad de expresión) no convergieron en respuestas claras "correctas" o "equivocadas". En cambio, los participantes nos dijeron que los debates eran cruciales para desarrollar habilidades para verificar más eficazmente sus propios sesgos y tomar decisiones informadas. Un estudiante dijo:

Después de caminar a través de una serie de preguntas, experimentos de pensamiento o temas de discusión con los profesores, y pensar profundamente en cada uno de los temas de subtending, a menudo terminaba con las posiciones opuestas a lo que inicialmente creía.

Cuando el refugio en el lugar significaba que la clase ya no podía reunirse, los participantes se reunieron en una semana para solicitar sesiones virtuales, anhelando un foro para discutir eventos en tiempo real con sus compañeros en un entorno estructurado. Después de nuestra primera sesión virtual examinando cómo el gobierno, la tecnología y las personas han respondido a COVID-19, un participante comentó: "Se siente como una conversación mucho más buena por venir sobre las preguntas, qué podemos hacer, qué debemos hacer, qué debemos hacer?"

Los profesionales de la tecnología parecen querer formas de involucrarse con el aprendizaje ético, la tarea ahora es proporcionar más oportunidades. Planeamos organizar otro curso este año y estamos buscando maneras de proporcionar una versión en línea, publicando los materiales.

COVID-19 no será la última crisis en la que confiemos en la tecnología para soluciones, y las necesitamos de inmediato. Si queremos discusiones más informadas sobre el comportamiento de la tecnología, y queremos que las personas que toman decisiones para entrar en estas crisis estén preparadas para pensar éticamente, necesitamos comenzar a capacitar a las personas que trabajan en tecnología para que piensen éticamente.


Para permitir que los alumnos exploren puntos de vista opuestos e incómodos y compartan sus experiencias personales, los debates en clase fueron confidenciales. He recibido permiso explícito para compartir cualquier información de los estudiantes aquí.

Силиконовая долина нуждается в новом подходе к изучению этики сейчас больше, чем когда-либо

В следующем месяце Apple и Google обнародуют функции, позволяющие отслеживать контакты на iOS и Android, чтобы идентифицировать людей, которые имели контакт с кем-то, кто положительный результат на новый коронавирус.

Эксперты по безопасности быстро указывают на возможные опасности, включая риски конфиденциальности, такие как выявление личностей пользователей COVID-19, помощь рекламодателям в отслеживании их или жертвой ложных срабатываний от троллей.

Это свежие проблемы в знакомых дебатов об этике технологий. Как технологи должны думать о компромиссе между насущной необходимостью наблюдения за общественным здравоохранением и личной жизни? А неформация и свобода слова? Facebook и другие платформы играют гораздо более активную роль, чем когда-либо в оценке качества информации: продвижение официальных источников информации видное место и удаление некоторых сообщений от пользователей, бросающих вызов социальной дистанции.

По мере распространения пандемии и, наряду с ней, гонки за разработку новых технологий ускоряется, это более важно, чем когда-либо, что технология находит способ в полной мере изучить эти вопросы. Технологи сегодня плохо подготовлены для этой задачи: поражая здоровые балансы между конкурирующими проблемами – как конфиденциальность и безопасность – при объяснении их подход к общественности.

За последние несколько лет, ученые работали, чтобы дать студентам способы решения этических дилемм технологии поднимает. В прошлом году Стэнфорд объявил о новом (а теперь популярном) курсе бакалавриата на "Этика, государственная политика и технологические изменения", преподаваемый факультетом философии, а также политической и компьютерной науки. Гарвард, MIT, UT Остин и другие преподают аналогичные курсы.

Если только студенты будущих технологов, однако, решения будут отставать. Если мы хотим более этически знающих технологий промышленности сегодня, мы должны этического исследования для технологий практиков, а не только студентов университетов.

Чтобы расширить это обучение на практикующих технологий, наш венчурный фонд, Bloomberg Beta, согласился провести тот же Стэнфордский факультет для эксперимента. Основываясь на их бакалавриате, можем ли мы разработать образовательный опыт для пожилых людей, которые работают в технологическом секторе? Мы адаптировали содержание (включающее реальные дилеммы), структуру и расположение класса, создав шестинедельный вечерний курс в Сан-Франциско. Через неделю после объявления курса, мы получили в два раза больше заявок, чем мы могли бы разместить.

Мы выбрали разнообразную группу студентов всеми возможными способами, которые могли бы управлять, которые все несут ответственность в области технологий. Они сказали нам, что, когда они сталкиваются с этической дилеммой на работе, им не хватало сообщества, к которому обратиться – некоторые доверились друзьям или семье, другие показали, что они искали ответы в Интернете. Многие боялись свободно говорить в своих компаниях. Несмотря на ряд инициатив по этике под руководством компании, в ключая стоящие для назначения главных сотрудников по этике и принципы Microsoft и IBM в отношении этического ИИ, студенты нашего класса сказали нам, что у них нет места для открытых и честных разговоров о поведении технологий.

Если мы хотим более этически знающих технологий промышленности сегодня, мы должны этического исследования для технологий практиков, а не только студентов университетов.

Как и студенты, наши студенты хотели учиться как у ученых, так и у лидеров отрасли. Каждую неделю были представлены такие эксперты, как Мариете Шааке, бывший член Европейского парламента от Нидерландов, который обсуждал реальные вопросы, от конфиденциальности данных до политической рекламы. Профессора способствовали обсуждению, поощряя наших студентов обсуждать несколько, часто противоположных взглядов, с нашими гостями-экспертами.

Более половины класса пришли из STEM фона и пропустил много явного образования в этических рамках. Наш класс обсуждал принципы из других областей, таких как медицинская этика, в ключая руководящая максима врача («во-первых, не навреди») в контексте разработки новых алгоритмов. Тексты из мира научной фантастики, как "Те, кто уходят от Омеласа" Урсула К. Ле Гуин, также предложил способы борьбы с проблемами, в результате чего студенты оценить, как собирать и использовать данные ответственно.

Ответы на вопросы, основанные на ценностях, которые мы исследовали (например, компромиссы между дезинформацией и свободой слова), не сходятся на четких «правильных» или «неправильных» ответах. Вместо этого участники сказали нам, что дискуссии имеют решающее значение для развития навыков для более эффективной проверки своих собственных предубеждений и принятия обоснованных решений. Один студент сказал:

Пройдя через ряд вопросов, мысленных экспериментов или тем обсуждения с профессорами, и глубоко размышляя о каждом из вопросов субтендинга, я часто в конечном итоге с противоположными позициями к тому, что я первоначально верил.

Когда укрытие на месте означало, что класс больше не может встречаться, участники протянули руку в течение недели, чтобы запросить виртуальные сессии – жажда форума, чтобы обсудить события в режиме реального времени со своими сверстниками в структурированной среде. После нашей первой виртуальной сессии изучения, как правительство, технологии и отдельные лица ответили на COVID-19, один из участников заметил: "Там чувствует, как гораздо больше хорошего разговора прийти на вопросы, что мы можем сделать, что мы должны делать, что мы должны делать?"

Технологические специалисты, похоже, хотят, чтобы способы взаимодействия с этическим обучением – задача сейчас заключается в том, чтобы предоставить больше возможностей. Мы планируем провести еще один курс в этом году и ищем способы предоставления онлайн-версии, публикуя материалы.

COVID-19 не будет последним кризисом, когда мы полагаемся на технологии для решения, и нуждаются в них немедленно. Если мы хотим более информированных дискуссий о поведении технологий, и мы хотим, чтобы люди, которые делают выбор, чтобы войти в эти кризисы готовы думать этически, мы должны начать обучение людей, которые работают в области технологий думать этически.


Чтобы позволить студентам исследовать противоположные, неудобные точки зрения и поделиться своим личным опытом, обсуждения в классе были конфиденциальными. Я получил явное разрешение поделиться любыми идеями от студентов здесь.

COVID-19 forced Airbnb to rethink its product offerings; here’s some of what it came up with

The coronavirus has decimated the travel industry, and Airbnb, the home rental company that appeared unstoppable not so long ago, has not been spared.

While the headlines have focused on the measures it’s taking to stockpile cash to offset its losses, behind the scenes, the nearly 12-year-old company has been busily redesigning its products. These include rethinking its home screen and app landing pages to reflect a world where short-term stays are out and longer-term stays — including for medical professionals needing to quarantine themselves from their families — are in.

We talked with Airbnb’s chief design officer, Alex Schleifer, to learn more about what’s been changing behind the scenes, and how. Our chat has been edited lightly for length and clarity.

TC: Airbnb’s home page is suddenly very focused on three things — online experiences, monthly stays and what you’re calling “frontline,” which is an area for hosts to offer housing to healthcare staff and first responders. What was that design process like and how long did it take?

AS: Our team mapped it out in under three weeks. There were a couple hundred employees working on the project at any point in time — people from ops, products, localization, design, policy, engineering. It’s a complex operation (here); everything we need to do needs to be done in 60 languages. Because of the scale of everything we do, the idea is often the easiest piece.

The difficulty was [sharpened] because the crisis was also impacting us. Everyone was working from home. There were questions around how do we do childcare, for example. But there was still immense energy, including because we had thousands of hosts contacting us and saying, ‘We want to help.’

TC: Where exactly do you start on a redesign like this one?

AS: You define the scope of it. You could put a banner on your home page, or you can start talking with hosts and governments to understand what kind of help they need and whether this is something they want, then you start building. Part of that is looking at the behavior of the guests on our platform in real time, which changes every day. It’s also a matter of talking with other travel partners and seeing what they are doing.

Ultimately, we [decided to take] over a pretty large amount of real estate so front-line workers know where to go. They also use our core search, but we want to make sure they have specific space for people who want to donate space or support the program. We had a goal of 100,000 homes that would be provided, but we beat that goal faster than we thought we would.

TC: Are these spaces being offered at no cost?

AS: They are donated or offered at reduced pricing.

TC: Another new section now centers around ‘online experiences.’ These are hosts who are offering their own classes on cooking and other things?

AS: Yes, like “Sangria mixing with Pedro,” which is a cocktail mixing show with a lot of entertainment. Airbnb is all about connection — it’s built on hosting. But if not everybody is able to travel, the question becomes: what are our options here? We discussed a lot of ideas, but the way we were working and connecting as a team [remotely] and living online with family made this idea more concrete for us. So we contacted hosts, did trial runs with these hosts with mic set-ups [and everything else required] and launched with 50 people. Now, we have nearly 100 hosts offering experiences online and thousands more who’ve offered to host experiences. Some of the most popular offerings — which aren’t one-to-many experience where you are watching a show but rather an interactive experience — are already sold out.

(Above, Airbnb’s homepage before the updates.)

TC: Do you see this becoming a sizable piece of Airbnb’s business going forward?

AS: It’s only a few weeks old, but even for a product in its first version, we were really enjoying this. It has beaten expectations, and I do think it will be a huge business for us as we get out of the pandemic because it allows hosts to host both online and real-world experiences.

TC: I’m sure a lot of ideas have been batted around. How are you choosing what to circle around?

AS: We’re lucky to sit on a lot of data, but you can only test so much. You need really strong and fast decision-making, so leadership and the executive team would meet daily.

The other thing that as a designer I appreciate is we made sure to remove abstract layers of communication. We wouldn’t just load up a Google doc but we made it real using [the collaborative interface design tool] Figma to look at all the designs and quickly prototype and screen-share, whether with the experiences team or me or [CEO] Brian [Chesky], to see what customers would see and make decisions.

TC: You mention Figma. What other tools have you been relying on more heavily as you work from home?

AS: We like to use as few tools as possible, but Figma is a game changer because people can see decisions being made live. Google Docs is really powerful for us. Slack also allows us to work asynchronously, which is important. And Zoom has been critical to everyone.

TC: Things are changing by the day. Parts of the world are opening while others remain shut. How is this impacting your work?

AS: We built the product and site to be really modular and also targetable by region because you’re right, the world will open up on different schedules with different restrictions and permutations and we want to make sure we can offer to people what is available to them. In some cases, they might be [hampered by] travel within a certain distance, or air travel might not be open, so we want to help people to find things that are close by.

We’re also building other pieces continuously, some in direct response to the crisis, including a hub that communicates to our guests and hosts what’s happening with travel and what happens after the storm.

As a global company, we’re pretty used to [adapting to change]. Of course, this is a different scale.