This is a Spanish publication
Publicação em espanhol
Esta é uma publicação espanhola
Публикация на Испанском языке
Это испанское издание
Silicon Valley needs a new approach to studying ethics now more than ever
Next month, Apple and Google will unveil features to enable contact tracing on iOS and Android to identify people who have had contact with someone who tests positive for the novel coronavirus.
Security experts have been quick to point out the possible dangers, including privacy risks like revealing identities of COVID-19-positive users, helping advertisers track them or falling prey to false positives from trolls.
These are fresh concerns in familiar debates about tech’s ethics. How should technologists think about the trade-off between the immediate need for public health surveillance and individual privacy? And misformation and free speech? Facebook and other platforms are playing a much more active role than ever in assessing the quality of information: promoting official information sources prominently and removing some posts from users defying social distancing.
As the pandemic spreads and, along with it, the race to develop new technologies accelerates, it’s more critical than ever that technology finds a way to fully examine these questions. Technologists today are ill-equipped for this challenge: striking healthy balances between competing concerns — like privacy and safety — while explaining their approach to the public.
Over the past few years, academics have worked to give students ways to address the ethical dilemmas technology raises. Last year, Stanford announced a new (and now popular) undergraduate course on “Ethics, Public Policy, and Technological Change,” taught by faculty from philosophy, as well as political and computer science. Harvard, MIT, UT Austin and others teach similar courses.
If the only students are future technologists, though, solutions will lag. If we want a more ethically knowledgeable tech industry today, we need ethical study for tech practitioners, not just university students.
To broaden this teaching to tech practitioners, our venture fund, Bloomberg Beta, agreed to host the same Stanford faculty for an experiment. Based on their undergraduate course, could we design an educational experience for senior people who work across the tech sector? We adapted the content (incorporating real-world dilemmas), structure and location of the class, creating a six-week evening course in San Francisco. A week after announcing the course, we received twice as many applications as we could accommodate.
We selected a diverse group of students in every way we could manage, who all hold responsibility in tech. They told us that when they faced an ethical dilemma at work, they lacked a community to which to turn — some confided in friends or family, others revealed they looked up answers on the internet. Many felt afraid to speak freely within their companies. Despite several company-led ethics initiatives, including worthwhile ones to appoint chief ethics officers and Microsoft and IBM’s principles for ethical AI, the students in our class told us they had no space for open and honest conversations about tech’s behavior.
If we want a more ethically knowledgeable tech industry today, we need ethical study for tech practitioners, not just university students.
Like undergraduates, our students wanted to learn from both academics and industry leaders. Each week featured experts like Marietje Schaake, former Member of the European Parliament from the Netherlands, who debated real issues, from data privacy to political advertising. The professors facilitated discussions, encouraging our students to discuss multiple, often opposing views, with our expert guests.
Over half of the class came from a STEM background and had missed much explicit education in ethical frameworks. Our class discussed principles from other fields, like medical ethics, including the physician’s guiding maxim (“first, do no harm”) in the context of designing new algorithms. Texts from the world of science fiction, like “The Ones Who Walk Away from Omelas” by Ursula K. Le Guin, also offered ways to grapple with issues, leading students to evaluate how to collect and use data responsibly.
The answers to the values-based questions we explored (such as the trade-offs between misinformation and free speech) didn’t converge on clear “right” or “wrong” answers. Instead, participants told us that the discussions were crucial for developing skills to more effectively check their own biases and make informed decisions. One student said:
After walking through a series of questions, thought experiments or discussion topics with the professors, and thinking deeply about each of the subtending issues, I often ended up with the opposite positions to what I initially believed.
When shelter-in-place meant the class could no longer meet, participants reached out within a week to request virtual sessions — craving a forum to discuss real-time events with their peers in a structured environment. After our first virtual session examining how government, tech and individuals have responded to COVID-19, one participant remarked: “There feels like so much more good conversation to come on the questions, what can we do, what should we do, what must we do?”
Tech professionals seem to want ways to engage with ethical learning — the task now is to provide more opportunities. We plan on hosting another course this year and are looking at ways to provide an online version, publishing the materials.
COVID-19 won’t be the last crisis where we rely on technology for solutions, and need them immediately. If we want more informed discussions about tech’s behavior, and we want the people who make choices to enter these crises prepared to think ethically, we need to start training people who work in tech to think ethically.
To allow students to explore opposing, uncomfortable viewpoints and share their personal experiences, class discussions were confidential. I’ve received explicit permission to share any insights from students here.
Silicon Valley necesita un nuevo enfoque para estudiar ética ahora más que nunca
El próximo mes, Apple y Google darán a conocer funciones para permitir el rastreo de contactos en iOS y Android para identificar a las personas que han tenido contacto con alguien que da positivo por el nuevo coronavirus.
Los expertos en seguridad se han apresurado a señalar los posibles peligros, incluidos los riesgos de privacidad como revelar identidades de usuarios COVID-19 positivos, ayudar a los anunciantes a rastrearlos o caer presa de falsos positivos de los trolls.
Estas son nuevas preocupaciones en debates familiares sobre la ética tecnológica. ¿Cómo deben pensar los tecnólogos sobre el equilibrio entre la necesidad inmediata de vigilancia de la salud pública y la privacidad individual? ¿Y la deformación y la libertad de expresión? Facebook y otras plataformas están desempeñando un papel mucho más activo que nunca en la evaluación de la calidad de la información: promover las fuentes de información oficiales de manera prominente y eliminar algunas publicaciones de los usuarios que desafían el distanciamiento social.
A medida que la pandemia se propaga y, junto con ella, la carrera por desarrollar nuevas tecnologías se acelera, es más importante que nunca que la tecnología encuentre una manera de examinar plenamente estas preguntas. Los tecnólogos de hoy en día no están bien equipados para este desafío: lograr equilibrios saludables entre las preocupaciones de la competencia, como la privacidad y la seguridad, al tiempo que explican su enfoque al público.
En los últimos años, los académicos han trabajado para dar a los estudiantes maneras de abordar los dilemas éticos que plantea la tecnología. El año pasado, Stanford anunció un nuevo (y ahora popular) curso de pregrado sobre "Etica, Políticas Públicas y Cambio Tecnológico", impartido por profesores de filosofía, así como ciencias políticas e informáticas. Harvard, MIT, UT Austin y otros imparten cursos similares.
Sin embargo, si los únicos estudiantes son futuros tecnólogos, las soluciones se relagranrán. Si queremos una industria tecnológica más éticamente bien experta hoy en día, necesitamos un estudio ético para los profesionales de la tecnología, no solo para los estudiantes universitarios.
Para ampliar esta enseñanza a los profesionales de la tecnología, nuestro fondo de riesgo, Bloomberg Beta, acordó acoger la misma facultad de Stanford para un experimento. Basándonos en su curso de pregrado, ¿podríamos diseñar una experiencia educativa para personas de la tercera edad que trabajan en todo el sector tecnológico? Adaptamos el contenido (incorporando dilemas del mundo real), estructura y ubicación de la clase, creando un curso nocturno de seis semanas en San Francisco. Una semana después de haber anuncio el curso, recibimos el doble de solicitudes que pudimos acomodar.
Seleccionamos un grupo diverso de estudiantes en todos los aspectos que pudimos administrar, que todos tienen la responsabilidad en la tecnología. Nos dijeron que cuando se enfrentaban a un dilema ético en el trabajo, carecían de una comunidad a la que recurrir: algunos confiaban en amigos o familiares, otros revelaron que buscaban respuestas en Internet. Muchos tenían miedo de hablar libremente dentro de sus empresas. A pesar de varias iniciativas de ética dirigidas por la empresa, incluidas las que valen la pena nombrar a los directores de ética y los principios de Microsoft e IBM para la IA ética, los estudiantes de nuestra clase nos dijeron que no tenían espacio para conversaciones abiertas y honestas sobre el comportamiento de la tecnología.
Si queremos una industria tecnológica más éticamente bien experta hoy en día, necesitamos un estudio ético para los profesionales de la tecnología, no solo para los estudiantes universitarios.
Al igual que los estudiantes de pregrado, nuestros estudiantes querían aprender tanto de académicos como de líderes de la industria. Cada semana contó con expertos como Marietje Schaake, ex miembro del Parlamento Europeo de los Países Bajos, que debatió cuestiones reales, desde la privacidad de los datos hasta la publicidad política. Los profesores facilitaron las discusiones, animando a nuestros estudiantes a discutir múltiples puntos de vista, a menudo opuestos, con nuestros invitados expertos.
Más de la mitad de la clase provenía de un origen STEM y había perdido mucha educación explícita en marcos éticos. Nuestra clase discutió principios de otros campos, como la ética médica, incluyendo la máxima guía del médico ("primero, no hacer daño") en el contexto del diseño de nuevos algoritmos. Textos del mundo de la ciencia ficción, como "The Ones Who Walk Away from Omelas" de Ursula K. Le Guin, también ofrecieron formas de lidiar con problemas, lo que llevó a los estudiantes a evaluar cómo recopilar y usar los datos de manera responsable.
Las respuestas a las preguntas basadas en valores que exploramos (como las compensaciones entre la desinformación y la libertad de expresión) no convergieron en respuestas claras "correctas" o "equivocadas". En cambio, los participantes nos dijeron que los debates eran cruciales para desarrollar habilidades para verificar más eficazmente sus propios sesgos y tomar decisiones informadas. Un estudiante dijo:
Después de caminar a través de una serie de preguntas, experimentos de pensamiento o temas de discusión con los profesores, y pensar profundamente en cada uno de los temas de subtending, a menudo terminaba con las posiciones opuestas a lo que inicialmente creía.
Cuando el refugio en el lugar significaba que la clase ya no podía reunirse, los participantes se reunieron en una semana para solicitar sesiones virtuales, anhelando un foro para discutir eventos en tiempo real con sus compañeros en un entorno estructurado. Después de nuestra primera sesión virtual examinando cómo el gobierno, la tecnología y las personas han respondido a COVID-19, un participante comentó: "Se siente como una conversación mucho más buena por venir sobre las preguntas, qué podemos hacer, qué debemos hacer, qué debemos hacer?"
Los profesionales de la tecnología parecen querer formas de involucrarse con el aprendizaje ético, la tarea ahora es proporcionar más oportunidades. Planeamos organizar otro curso este año y estamos buscando maneras de proporcionar una versión en línea, publicando los materiales.
COVID-19 no será la última crisis en la que confiemos en la tecnología para soluciones, y las necesitamos de inmediato. Si queremos discusiones más informadas sobre el comportamiento de la tecnología, y queremos que las personas que toman decisiones para entrar en estas crisis estén preparadas para pensar éticamente, necesitamos comenzar a capacitar a las personas que trabajan en tecnología para que piensen éticamente.
Para permitir que los alumnos exploren puntos de vista opuestos e incómodos y compartan sus experiencias personales, los debates en clase fueron confidenciales. He recibido permiso explícito para compartir cualquier información de los estudiantes aquí.
Vale do Silício precisa de uma nova abordagem para estudar ética agora mais do que nunca
No próximo mês, Apple e Google revelarão recursos para permitir o rastreamento de contatos no iOS e Android para identificar pessoas que tiveram contato com alguém que testa positivo para o novo coronavírus.
Especialistas em segurança têm sido rápidos em apontar os possíveis perigos, incluindo riscos de privacidade, como revelar identidades de usuários covid-19 positivos, ajudar os anunciantes a rastreá-los ou ser vítima de falsos positivos de trolls.
São novas preocupações em debates familiares sobre a ética da tecnologia. Como os tecnólogos devem pensar sobre a troca entre a necessidade imediata de vigilância em saúde pública e a privacidade individual? E má formação e liberdade de expressão? O Facebook e outras plataformas estão desempenhando um papel muito mais ativo do que nunca na avaliação da qualidade da informação: promover fontes oficiais de informação com destaque e remover algumas postagens de usuários que desafiam o distanciamento social.
À medida que a pandemia se espalha e, junto com ela, a corrida para desenvolver novas tecnologias acelera, é mais crítico do que nunca que a tecnologia encontre uma maneira de examinar completamente essas questões. Os tecnólogos de hoje estão mal equipados para este desafio: encontrar equilíbrios saudáveis entre as preocupações concorrentes — como privacidade e segurança — enquanto explicam sua abordagem ao público.
Nos últimos anos, os acadêmicos têm trabalhado para dar aos alunos maneiras de lidar com os dilemas éticos que a tecnologia levanta. No ano passado, Stanford anunciou um novo (e agora popular) curso de graduação sobre "Ética, Políticas Públicas e Mudanças Tecnológicas", ministrado por professores de filosofia, além de ciência política e da computação. Harvard, MIT, UT Austin e outros ensinam cursos semelhantes.
Se os únicos alunos forem futuros tecnólogos, porém, as soluções vão atrasar. Se queremos uma indústria tecnológica mais eticamente experiente hoje, precisamos de estudo ético para profissionais de tecnologia, não apenas estudantes universitários.
Para ampliar esse ensino para os profissionais de tecnologia, nosso fundo de risco, Bloomberg Beta, concordou em hospedar a mesma faculdade de Stanford para um experimento. Com base em seu curso de graduação, poderíamos projetar uma experiência educacional para pessoas idosas que trabalham em todo o setor de tecnologia? Adaptamos o conteúdo (incorporando dilemas do mundo real), estrutura e localização da classe, criando um curso noturno de seis semanas em São Francisco. Uma semana depois de anunciar o curso, recebemos o dobro de inscrições que pudemos acomodar.
Selecionamos um grupo diversificado de alunos de todas as formas que pudemos gerenciar, que todos são responsáveis em tecnologia. Eles nos contaram que quando enfrentaram um dilema ético no trabalho, não tinham uma comunidade para recorrer — alguns confidenciaram a amigos ou familiares, outros revelaram que procuraram respostas na internet. Muitos sentiam medo de falar livremente dentro de suas empresas. Apesar de várias iniciativas de ética lideradas pela empresa, incluindo as que valem a pena nomear diretores de ética e os princípios da Microsoft e da IBM para AI ética, os alunos de nossa classe nos disseram que não tinham espaço para conversas abertas e honestas sobre o comportamento da tecnologia.
Se queremos uma indústria tecnológica mais eticamente experiente hoje, precisamos de estudo ético para profissionais de tecnologia, não apenas estudantes universitários.
Como graduandos, nossos alunos queriam aprender com acadêmicos e líderes do setor. A cada semana destacava-se especialistas como Marietje Schaake, ex-membro do Parlamento Europeu dos Países Baixos, que debatia questões reais, da privacidade de dados à publicidade política. Os professores facilitaram as discussões, incentivando nossos alunos a discutir opiniões múltiplas, muitas vezes opostas, com nossos convidados especializados.
Mais da metade da classe veio de uma formação STEM e perdeu muita educação explícita em quadros éticos. Nossa classe discutiu princípios de outras áreas, como a ética médica, incluindo a máxima orientadora do médico ("primeiro, não faça mal") no contexto da concepção de novos algoritmos. Textos do mundo da ficção científica, como "Aqueles que se afastam de Omelas", de Ursula K. Le Guin, também ofereceram maneiras de lidar com as questões, levando os alunos a avaliar como coletar e usar dados de forma responsável.
As respostas às perguntas baseadas em valores que exploramos (como as trocas entre desinformação e liberdade de expressão) não convergiram em respostas claras "certas" ou "erradas". Em vez disso, os participantes nos disseram que as discussões foram cruciais para o desenvolvimento de habilidades para verificar de forma mais eficaz seus próprios vieses e tomar decisões informadas. Um aluno disse:
Depois de passar por uma série de perguntas, experimentos de pensamento ou tópicos de discussão com os professores, e pensar profundamente sobre cada uma das questões de subalterno, muitas vezes acabei com as posições opostas ao que eu acreditava inicialmente.
Quando o abrigo no local significava que a classe não podia mais se reunir, os participantes entraram em contato dentro de uma semana para solicitar sessões virtuais — desejando um fórum para discutir eventos em tempo real com seus pares em um ambiente estruturado. Após nossa primeira sessão virtual examinando como governo, tecnologia e indivíduos responderam ao COVID-19, um participante comentou: "Parece que há muito mais conversa boa para vir sobre as perguntas, o que podemos fazer, o que devemos fazer, o que devemos fazer?"
Os profissionais de tecnologia parecem querer maneiras de se envolver com o aprendizado ético — a tarefa agora é oferecer mais oportunidades. Planejamos realizar outro curso este ano e estamos procurando maneiras de fornecer uma versão online, publicando os materiais.
O COVID-19 não será a última crise em que contamos com a tecnologia para soluções, e precisamos delas imediatamente. Se queremos discussões mais informadas sobre o comportamento da tecnologia, e queremos que as pessoas que fazem escolhas para entrar nessas crises estejam preparadas para pensar eticamente, precisamos começar a treinar pessoas que trabalham em tecnologia a pensar eticamente.
Para permitir que os alunos explorassem pontos de vista opostos e desconfortáveis e compartilhassem suas experiências pessoais, as discussões em sala de aula eram confidenciais. Recebi permissão explícita para compartilhar qualquer informação dos alunos daqui.
Силиконовая долина нуждается в новом подходе к изучению этики сейчас больше, чем когда-либо
В следующем месяце Apple и Google обнародуют функции, позволяющие отслеживать контакты на iOS и Android, чтобы идентифицировать людей, которые имели контакт с кем-то, кто положительный результат на новый коронавирус.
Эксперты по безопасности быстро указывают на возможные опасности, включая риски конфиденциальности, такие как выявление личностей пользователей COVID-19, помощь рекламодателям в отслеживании их или жертвой ложных срабатываний от троллей.
Это свежие проблемы в знакомых дебатов об этике технологий. Как технологи должны думать о компромиссе между насущной необходимостью наблюдения за общественным здравоохранением и личной жизни? А неформация и свобода слова? Facebook и другие платформы играют гораздо более активную роль, чем когда-либо в оценке качества информации: продвижение официальных источников информации видное место и удаление некоторых сообщений от пользователей, бросающих вызов социальной дистанции.
По мере распространения пандемии и, наряду с ней, гонки за разработку новых технологий ускоряется, это более важно, чем когда-либо, что технология находит способ в полной мере изучить эти вопросы. Технологи сегодня плохо подготовлены для этой задачи: поражая здоровые балансы между конкурирующими проблемами – как конфиденциальность и безопасность – при объяснении их подход к общественности.
За последние несколько лет, ученые работали, чтобы дать студентам способы решения этических дилемм технологии поднимает. В прошлом году Стэнфорд объявил о новом (а теперь популярном) курсе бакалавриата на "Этика, государственная политика и технологические изменения", преподаваемый факультетом философии, а также политической и компьютерной науки. Гарвард, MIT, UT Остин и другие преподают аналогичные курсы.
Если только студенты будущих технологов, однако, решения будут отставать. Если мы хотим более этически знающих технологий промышленности сегодня, мы должны этического исследования для технологий практиков, а не только студентов университетов.
Чтобы расширить это обучение на практикующих технологий, наш венчурный фонд, Bloomberg Beta, согласился провести тот же Стэнфордский факультет для эксперимента. Основываясь на их бакалавриате, можем ли мы разработать образовательный опыт для пожилых людей, которые работают в технологическом секторе? Мы адаптировали содержание (включающее реальные дилеммы), структуру и расположение класса, создав шестинедельный вечерний курс в Сан-Франциско. Через неделю после объявления курса, мы получили в два раза больше заявок, чем мы могли бы разместить.
Мы выбрали разнообразную группу студентов всеми возможными способами, которые могли бы управлять, которые все несут ответственность в области технологий. Они сказали нам, что, когда они сталкиваются с этической дилеммой на работе, им не хватало сообщества, к которому обратиться – некоторые доверились друзьям или семье, другие показали, что они искали ответы в Интернете. Многие боялись свободно говорить в своих компаниях. Несмотря на ряд инициатив по этике под руководством компании, в ключая стоящие для назначения главных сотрудников по этике и принципы Microsoft и IBM в отношении этического ИИ, студенты нашего класса сказали нам, что у них нет места для открытых и честных разговоров о поведении технологий.
Если мы хотим более этически знающих технологий промышленности сегодня, мы должны этического исследования для технологий практиков, а не только студентов университетов.
Как и студенты, наши студенты хотели учиться как у ученых, так и у лидеров отрасли. Каждую неделю были представлены такие эксперты, как Мариете Шааке, бывший член Европейского парламента от Нидерландов, который обсуждал реальные вопросы, от конфиденциальности данных до политической рекламы. Профессора способствовали обсуждению, поощряя наших студентов обсуждать несколько, часто противоположных взглядов, с нашими гостями-экспертами.
Более половины класса пришли из STEM фона и пропустил много явного образования в этических рамках. Наш класс обсуждал принципы из других областей, таких как медицинская этика, в ключая руководящая максима врача («во-первых, не навреди») в контексте разработки новых алгоритмов. Тексты из мира научной фантастики, как "Те, кто уходят от Омеласа" Урсула К. Ле Гуин, также предложил способы борьбы с проблемами, в результате чего студенты оценить, как собирать и использовать данные ответственно.
Ответы на вопросы, основанные на ценностях, которые мы исследовали (например, компромиссы между дезинформацией и свободой слова), не сходятся на четких «правильных» или «неправильных» ответах. Вместо этого участники сказали нам, что дискуссии имеют решающее значение для развития навыков для более эффективной проверки своих собственных предубеждений и принятия обоснованных решений. Один студент сказал:
Пройдя через ряд вопросов, мысленных экспериментов или тем обсуждения с профессорами, и глубоко размышляя о каждом из вопросов субтендинга, я часто в конечном итоге с противоположными позициями к тому, что я первоначально верил.
Когда укрытие на месте означало, что класс больше не может встречаться, участники протянули руку в течение недели, чтобы запросить виртуальные сессии – жажда форума, чтобы обсудить события в режиме реального времени со своими сверстниками в структурированной среде. После нашей первой виртуальной сессии изучения, как правительство, технологии и отдельные лица ответили на COVID-19, один из участников заметил: "Там чувствует, как гораздо больше хорошего разговора прийти на вопросы, что мы можем сделать, что мы должны делать, что мы должны делать?"
Технологические специалисты, похоже, хотят, чтобы способы взаимодействия с этическим обучением – задача сейчас заключается в том, чтобы предоставить больше возможностей. Мы планируем провести еще один курс в этом году и ищем способы предоставления онлайн-версии, публикуя материалы.
COVID-19 не будет последним кризисом, когда мы полагаемся на технологии для решения, и нуждаются в них немедленно. Если мы хотим более информированных дискуссий о поведении технологий, и мы хотим, чтобы люди, которые делают выбор, чтобы войти в эти кризисы готовы думать этически, мы должны начать обучение людей, которые работают в области технологий думать этически.
Чтобы позволить студентам исследовать противоположные, неудобные точки зрения и поделиться своим личным опытом, обсуждения в классе были конфиденциальными. Я получил явное разрешение поделиться любыми идеями от студентов здесь.
Matt Ocko saw COVID-19 coming: Here’s what his venture firm is doing about it
Matt Ocko, co-founder of venture firm Data Collective (DCVC), was among a small group of VCs viewed as alarmists when they began tweeting about the coronavirus’s imminent appearance in the U.S. back in January.
In retrospect, those individuals were prescient, so we spoke with Ocko last week about why he was so certain the U.S. was about to get walloped by COVID-19, and asked how some of the startups in DCVC’s portfolio — which has long had a strong biotech focus — are trying to get us back to a state of normalcy.
This conversation has been edited for length.
TechCrunch: You were tweeting about COVID-19 back in January; I almost canceled a flight out of San Francisco because of your [expressed concern about a flight bound for SFO from Wuhan, China]. What did you see that the rest of us missed?
Matt Ocko: My family has been working with the Chinese government at a reasonably high level since the late 1970s, starting with my dad, and I kind of grew up in that environment. And at a relatively young age, as a professional [in the 1990s], I started pro bono helping my dad, who’s a Chinese legal expert, on things like constructing the laws around China’s Nasdaq equivalent, its stock markets, the joint dollar-renminbi investment legislation, advice on technology development and venture capital development.
I’m not an anti-China hawk by any means. But I do have an understanding of some of the idiosyncrasies of Chinese culture reflected in its government, the same way every country has its idiosyncrasies.
[In China’s case], it’s a focus on face and reputation and extreme sensitivity to negative perception or shame or humiliation at every level of government and culture. And so there’s [an] unfortunate trend — and not a universal one — for people to manage upwards, especially in the government, and tell their higher-ups what they want to hear to avoid shame, to avoid the loss of reputation and to kick the can down the road or hope that circumstances on the ground change favorably in the face of denial or equivocation.
Matt Ocko vio venir a COVID-19: Esto es lo que su empresa de empresa está haciendo al respecto
Matt Ocko, cofundador de la firma de riesgo Data Collective (DCVC), fue uno de un pequeño grupo de VCs vistos como alarmistas cuando comenzaron a tuitear sobre la inminente aparición del coronavirus en los Estados Unidos. en enero.
En retrospectiva, esos individuos eran prescientes, así que hablamos con Ocko la semana pasada sobre por qué estaba tan seguro de los EE.UU. estaba a punto de ser engañados por COVID-19, y preguntó cómo algunas de las startups en la cartera de DCVC, que durante mucho tiempo ha tenido un fuerte enfoque biotecnológico, están tratando de que volvamos a un estado de normalidad.
Esta conversación se ha editado para la duración.
TechCrunch: Estabas tuiteando sobre COVID-19 en enero; Casi cancelé un vuelo desde San Francisco debido a su [expressed concern about a flight bound for SFO from Wuhan, China]. ¿Qué viste que el resto de nosotros perdimos?
Matt Ocko: Mi familia ha estado trabajando con el gobierno chino a un nivel razonablemente alto desde finales de la década de 1970, empezando por mi padre, y yo crecí en ese ambiente. Y a una edad relativamente joven, como profesional, c[in the 1990s]omencé a ayudar pro bono a mi padre, que es un experto legal chino, en cosas como construir las leyes en torno al equivalente Nasdaq de China, sus mercados bursátiles, la legislación conjunta de inversión dólar-renminbi, asesoramiento en desarrollo tecnológico y desarrollo de capital de riesgo.
No soy un halcón anti-China de ninguna manera. Pero tengo una comprensión de algunas de las idiosincrasias de la cultura china reflejadas en su gobierno, de la misma manera que cada país tiene su idiosincrasia.
[In China’s case], es un enfoque en la cara y la reputación y la sensibilidad extrema a la percepción negativa o la verguenza o humillación en todos los niveles del gobierno y la cultura. Así que hay una [an]tendencia desafortunada —y no universal— para que la gente se gestione hacia arriba, especialmente en el gobierno, y les diga a sus superiores lo que quieren oír para evitar la verguenza, evitar la pérdida de reputación y patear la lata por el camino o la esperanza de que las circunstancias sobre el terreno cambien favorablemente frente a la negación o la equivocación.
Мэтт Окко увидел COVID-19 ближайшие: Вот что его венчурная фирма делает об этом
Мэтт Окко, соучредитель венчурной фирмы Data Collective (DCVC), был среди небольшой группы венчурных компаний, которые считались паникерами, когда они начали чирикать о предстоящем появлении коронавируса в США. еще в январе.
Оглядываясь назад, эти люди были пророческими, поэтому мы говорили с Ocko на прошлой неделе о том, почему он был так уверен в США. был готов получить walloped по COVID-19, и спросил, как некоторые из стартапов в портфеле DCVC – который уже давно сильный биотехнологический фокус – пытаются вернуть нас к нормальной жизни.
Этот разговор был отредактирован для длины.
TechCrunch: Вы чирикал о COVID-19 еще в январе; Я почти отменил рейс из Сан-Франциско из-за вашего [expressed concern about a flight bound for SFO from Wuhan, China]. Что вы видели, что остальные из нас пропустили?
Мэтт Окко: Моя семья работает с китайским правительством на достаточно высоком уровне с конца 1970-х годов, начиная с моего отца, и я как бы вырос в этой среде. И в относительно молодом возрасте, как профессионал, я [in the 1990s]начал безвозмездно помогать моему отцу, который китайский эксперт по правовым вопросам, на такие вещи, как строительство законов вокруг эквивалента Nasdaq Китая, его фондовых рынков, совместного доллара юаня инвестиционного законодательства, консультации по развитию технологий и венчурного капитала развития.
Я не антикитайский ястреб с помощью любых средств. Но я имею вникание некоторых из особенностей китайской культуры отраженной в своем правительстве, такой же путь каждая страна имеет свои особенности.
[In China’s case], это акцент на лицо и репутацию и крайнюю чувствительность к негативному восприятию или стыда или унижения на всех уровнях власти и культуры. И поэтому есть [an]печальная тенденция – а не универсальный – для людей, чтобы управлять вверх, особенно в правительстве, и рассказать своим высшим ups, что они хотят услышать, чтобы избежать стыда, чтобы избежать потери репутации и удар может вниз по дороге или надеемся, что обстоятельства на местах изменить благоприятно перед лицом отрицания или двусмысленности.