Показать HN: Eyesite — экспериментальный сайт, сочетающий компьютерное зрение и веб-дизайн=news.ycombinator.com=

Показать HN: Eyesite — экспериментальный сайт, объединяющий компьютерное зрение и веб-дизайн ( andykhau.com ) Я хотел Apple Vision Pros, но у меня нет $3500 в заднем кармане. Поэтому я сделал Apple Vision Pros дома.

Это был просто забавный маленький проект, который я сделал. В настоящее время веб-сайт не работает на экранах меньше 1200×728 (извините, пользователи мобильных устройств!). Он также может работать с трудом на устройствах с низким разрешением.

Для наилучшего результата направьте веб-камеру прямо на себя. Я тестировал свой веб-сайт с камерой MacBook.

Любые комментарии, вопросы и предложения будут высоко оценены!

блог: https://blog.andykhau.com/blog/eyesite

проверьте это: https://eyesite.andykhau.com/

гитхаб: https://github.com/akchro/eyesite

cwmoore 20 минут назад | [–]
Возможно, я являюсь результатом некоего эволюционного «бутылочного горлышка», но я предполагаю, что везде, где есть объектив камеры, отслеживание взгляда (и прогнозирование настроений) по крайней мере возможно, а в лучшем случае всегда включено в глобальном масштабе.
holografix 20 минут назад | [–]
Обожаю это, любые экспериментальные руководители проектов HCI вдохновляют меня думать по-другому о компьютерах и технологиях.


Source: news.ycombinator.com

Сколько времени нужно, чтобы понять, подходит ли вам работа или нет=news.ycombinator.com=

Сколько времени нужно, чтобы понять, подходит ли вам работа или нет ( charity.wtf )

therealfiona 16 минут назад | [–]
Примерно через 2 или 3 года, насколько я знаю.

Конечно, некоторые места я узнал раньше, но это исключения.

Если бы не качество жизни, которое обеспечивает моя текущая работа, я бы, наверное, нашел что-то другое. Я просто не могу найти сейчас ничего, что было бы достаточно интригующим и платило бы достаточно, чтобы я мог сделать прыжок без потери льгот.

JohnFen 1 час назад | [–]
Мне требуется около месяца, чтобы узнать наверняка. Если работа мне не подходит, мне требуется еще несколько месяцев, прежде чем я сознательно решу, что нет способа сделать работу подходящей для меня.


Source: news.ycombinator.com

Нужна помощь с изображениями Google: chrome =reddit.com/r/chrome=

Нужна помощь с поиском неисправностей в изображениях Google | Решено ( i.redd.it )

отправлено 6 часов назад пользователем Naive-Ad-9099

Всякий раз, когда я нажимаю на изображение, оно перенаправляет меня сюда, а не просто открывает в сторону, как это было раньше. Любая помощь будет полезна.

Источник

Удаляются ли закладки смартфона при первой синхронизации Android с аккаунтом Google? : chrome =reddit.com/r/chrome=

Удаляются ли закладки смартфона при первой синхронизации Android с аккаунтом Google? Устранение неполадок | Windows ( self.chrome )

отправлено 8 часов назад пользователем Starbrand21

Здравствуйте, это, возможно, глупый вопрос, но я просто хочу убедиться. Я хотел бы импортировать закладки со смартфона Android, но он никогда не был синхронизирован с аккаунтом Google. Если я синхронизирую его с аккаунтом Google, не будут ли закладки на смартфоне перезаписаны закладками из аккаунта Google?

Заранее спасибо.

Источник

проверка орфографии перестала работать в Chrome : chrome =reddit.com/r/chrome=

Проверка орфографии перестала работать в Chrome Устранение неполадок | Mac ( self.chrome )

отправлено 8 часов назад пользователемWorriedGiraffe2793

За последний год или около того “Проверка орфографических ошибок при вводе текста на веб-страницах” отключалась случайным образом каждые пару дней. Сначала я думал, что это происходит при обновлении Chrome, но потом я заметил, что это происходит даже между обновлениями.

Это и так раздражало, но теперь даже при включенной настройке Chrome больше не проверяет орфографию. Ноль.

Теперь настройка включена, и я могу писать любые случайные слова, и красная волнистая линия не появится.

И я только что понял, что отправил важное рабочее письмо с несколькими досадными опечатками.

Кто-нибудь еще сталкивался с этой проблемой и нашел решение?

Источник

Показать HN: S3mini – маленький и быстрый клиент, совместимый с S3, без зависимостей, готовый к работе на периферии=news.ycombinator.com=

Показать HN: S3mini – маленький и быстрый клиент, совместимый с S3, без зависимостей, готовый к работе на Edge ( github.com/good-lly )

arianvanp 8 часов назад | [–]
libcurl также имеет AWS auth с –aws-sigv4, что дает вам полностью совместимый S3-клиент без установки чего-либо! (Вероятно, у вас уже установлен curl)
impulser_ 2 часа назад | | [–]
Да, но это не будет работать в Cloudflare, Vercel или любой другой бессерверной среде, потому что в лучшем случае у вас будет доступ только к API узлов.
leerob 25 минут назад | | | [–]
Должно работать на Vercel, у вас есть доступ к полному API Node.js в функциях.
акоури 12 часов назад | | [–]
Это потрясающе! Ждал чего-то подобного, чтобы заменить раздутый SDK, который предоставляет Amazon. Важный вопрос — есть ли способ получить подписанные URL?
nikee 10 часов назад | | [–]
Я создал клиент S3 с похожими целями, как у TFA, но поддерживающий предварительное подписание:

https://github.com/nikeee/lean-s3

Предварительное подписание примерно в 30 раз быстрее, чем AWS SDK, и не является асинхронным.

О том, почему это так выглядит, можно прочитать здесь: https://github.com/nikeee/lean-s3/blob/main/DESIGN_DECISIONS…

e1g 9 часов назад | | | [–]
FYI, вы можете добавить поддержку браузера, используя noble-heshes[1] для SHA256/HMAC — это хорошо сделанная библиотека, которая обеспечивает производительность, неотличимую от нативной криптографии в любом масштабе, соответствующем операциям S3. Мы используем ее для нашего внутреннего клиента S3.

[1] https://github.com/paulmillr/noble-hashes

продолжение 8 часов назад | | | [–]
SHA256 и HMAC широко доступны в API браузеров: https://developer.mozilla.org/en-US/docs/Web/API/SubtleCrypt…
e1g 7 часов назад | | | [–]
SublteCrypto является асинхронным, и автор специально указал, что хочет, чтобы его API был синхронным.
neon_me 12 часов назад | | | [–]
На данный момент, к сожалению, нет – не поддерживаются подписанные URL. Это не было моей целью (вариант использования), но если вы найдете простой/минималистичный способ его реализовать, я могу помочь вам с интеграцией.

С моей точки зрения, это добавляет дополнительную сложность и размер, что, возможно, было бы идеальным вариантом для отдельного форка/проекта?

mannyv 9 часов назад | | | [–]
Подписанные URL-адреса хороши тем, что позволяют третьим лицам получать доступ к файлу без необходимости проходить аутентификацию в AWS.

Наш основной вариант использования — загрузки через браузер. Вы не хотите, чтобы люди загружали все подряд, например, папку загрузки WordPress. И это ограничено по времени, так что вам не придется беспокоиться о том, что кто-то повторно использует URL.

ecshafer 11 часов назад | | | [–]
Вы можете просто использовать вызовы s3 vis rest, если вам не нравится их SDK.
линотип 5 часов назад | | [–]
Выглядит круто.

Что я также хотел бы увидеть, так это простой, однобинарный S3-сервер, альтернативный Minio. Возможно, небольшой встроенный UI, похожий на DuckDB UI.

koito17 4 часа назад | | [–]
> Мне бы также хотелось увидеть простую альтернативу Minio в виде однобинарного сервера S3

Garage[1] не имеет веб-интерфейса, но я считаю, что он соответствует вашим требованиям. Это реализация S3, которая компилируется в один статический двоичный файл, и она специально разработана для случаев использования, когда узлы не обязательно имеют одинаковое оборудование (т. е. разные ЦП, разная ОЗУ, разные размеры хранилища и т. д.). В целом, Garage — это мое решение для хранения объектов в масштабе «домашнего сервера» и для быстрой настройки настоящего сервера S3.

Кажется, есть неофициальный веб-интерфейс[2] для Garage, но если вы его используете, вы больше не запускаете один исполняемый файл. Не так удобно, как встроенный веб-интерфейс.

[1] https://garagehq.deuxfleurs.fr/

[2] https://github.com/khairul169/garage-webui

everfrustrated 13 часов назад | | [–]
Предположительно, он меньше и быстрее, поскольку не выполняет никаких контрольных сумм.
neon_me 13 часов назад | | [–]
имеет ли это смысл или это должно быть необязательным?
tom1337 13 часов назад | | | [–]
Контрольная сумма имеет смысл, поскольку она гарантирует, что переданный вами файл является полным и соответствует ожиданиям. Если контрольная сумма загруженного вами файла отличается от той, которую вам предоставил сервер, вам не следует обрабатывать файл дальше и выдавать ошибку (худшим случаем, вероятно, будет атака «человек посередине», не таким уж и плохим случаем будет потеря пакетов, я полагаю).
supriyo-biswas 13 часов назад | | | [–]
> Контрольное суммирование имеет смысл, поскольку оно гарантирует, что переданный вами файл является полным и соответствует ожидаемому.

TCP имеет контрольную сумму на случай потери пакетов, а TLS защищает от MITM.

Я всегда считал этот аспект дизайна S3 сомнительным. Отправка и content-md5, и заголовка x-amz-content-sha256 и использование кучи вычислений в этом процессе, бля…

Это также одна из причин, по которой запуск minio в режиме одного узла и одного диска является пожирателем ресурсов.

lacop 8 часов назад | | | [–]
У меня есть некоторые эмпирические данные по этому поводу!

Служба копирования файлов Effingo выполняет строгие контрольные суммы на уровне приложений и обнаруживает около 4,5 повреждений на каждый переданный эксабайт (рисунок 9, раздел 6.2 в [1]).

Это поверх контрольных сумм TCP, контрольных сумм/шифрования транспортного уровня (gRPC), ECC RAM и других уровней по пути.

Многие из них можно было отследить до «сломанной» машины, которая в конечном итоге была выведена из эксплуатации.

[1] https://dl.acm.org/doi/abs/10.1145/3651890.3672262

alwyn 11 часов назад | | | | [–]
По моему мнению, одна из причин — обеспечение целостности в дальнейшем. Вы хотите, чтобы контрольная сумма файла оставалась той же, когда вы его загружаете, может быть, годы спустя. Если это не так, вы получаете предупреждение об этом. Без контрольной суммы, как вы узнаете наверняка? Вести собственную базу данных контрольных сумм? 🙂
supriyo-biswas 10 часов назад | | | [–]
Если мы говорим о защите от bitrot, я почти уверен, что S3 будет использовать какую-то форму контрольной суммы (например, crc32 или xxhash) для каждого внутреннего блока, чтобы облегчить процесс Рида-Соломона.

Если это проверка того, является ли это тем же файлом, вы можете использовать заголовок Etag, который вычисляется на стороне сервера S3. Хотя мне не нравится этот дизайн, так как он костенеет алгоритм контрольной суммы.

everfrustrated 9 часов назад | | | [–]
Вам может быть интересно это https://aws.amazon.com/blogs/aws/introducing-default-data-in…
dboreham 11 часов назад | | | | [–]
Хорошо известно (а может, и нет?), что приложения не могут полагаться на контрольные суммы TCP.
vbezhenar 13 часов назад | | | | [–]
TLS гарантирует, что поток не был изменен. Любые дополнительные контрольные суммы излишни.
охота 11 часов назад | | | [–]
На самом деле это не так. Поток TLS гарантирует, что пакеты, передаваемые между вашей машиной и S3, не будут повреждены, но это не защищает от переворотов битов, которые могут (хотя, очевидно, не должны) происходить внутри самого S3. Преимущество такой сквозной контрольной суммы заключается в том, что система S3 может хранить ее непосредственно рядом с данными, проверять ее при обратном считывании данных (убедившись, что ничего не изменилось с момента вашего исходного PutObject), а затем возвращать ее вам по запросу (чтобы вы также могли проверить ее в своем клиенте). Это единственный способ для вашего клиента иметь абсолютную уверенность в целостности в течение всего времени, пока данные находятся в системе.
tom1337 12 часов назад | | | | [–]
Это правда, но разве это не будет все равно необходимо, если у вас есть внутренняя служба S3, которая используется внутренними службами и не имеет HTTPS (так как она не открыта для общественности)? Я понимаю, что лучшей практикой было бы также использовать HTTPS там, но я предполагаю, что это не норма?
vbezhenar 12 часов назад | | | [–]
Теоретически пакеты TCP имеют контрольные суммы, однако они довольно слабы. Так что для HTTP дополнительные контрольные суммы имеют смысл. Хотя я не уверен, есть ли какие-либо внутренние развертывания AWS S3, работающие по HTTP, и зачем им усложнять свой протокол для всех, чтобы помочь такому узкоспециализированному варианту использования.

Я уверен, что у них есть причины для всей этой схемы подписи запросов вместо традиционного заголовка «Authorization: Bearer $token», но я никогда этого не понимал.

истон 12 часов назад | | | [–]
Где-то на AWS есть видео об этом, но в целом это связано с тем, что S3 был разработан в мире, где не все браузеры/клиенты имели HTTPS, и шифрование было достаточно дорогой операцией (например, мир IE6). SigV4 (и его предшественники) дешевы и просты, если вы понимаете код.

https://youtube.com/watch?v=tPr1AgGkvc4 , думаю, минут через 10.

formerly_proven 12 часов назад | | | | [–]
Потому что токен на предъявителя — это токен на предъявителя, позволяющий выполнить любой запрос, в то время как предварительно подписанный запрос позволяет вам предоставить возможность выполнить _только этот конкретный запрос_.
degamad 1 час назад | | | [–]
Токены на предъявителя имеют определенную область действия, которую можно использовать для ограничения функциональности аналогично предварительно подписанным запросам.

Однако функционал предварительно подписанных запросов s3 был запущен в 2011 году, а вот токен Bearer RFC 6750 не был стандартизирован до 2012 года…

Spooky23 5 часов назад | | | | [–]
Не всегда. Многие компании перехватывают и потенциально изменяют трафик TLS между границами сетей.
neon_me 13 часов назад | | | | [–]
да, ты прав!

С другой стороны, S3 использует контрольные суммы только для проверки ожидаемой загрузки (при записи с клиента на сервер)… и, что удивительно, вы можете сделать это параллельно после загрузки – проверив MD5-хэш блоба в ETag (*с некоторыми оговорками)

0x1ceb00da 12 часов назад | | | | [–]
Контрольная сумма вам понадобится только в том случае, если файл большой и вы загружаете его на диск, или если вы опасаетесь, что какое-то вредоносное ПО с правами root может изменить содержимое вашей памяти.
lazide 6 часов назад | | | [–]
Или вы действительно заботитесь о данных и осознаете статистическую неизбежность смены бита где-то по ходу дела, если вы работаете достаточно долго.
arbll 10 часов назад | | | | [–]
Я имею в виду, если вредоносная программа имеет права root и изменяет вашу память, то вы вряд ли находитесь в положении, когда эта проверка имеет смысл, хаха
cosmotic 10 часов назад | | [–]
> https://raw.githubusercontent.com/good-lly/s3mini/dev/perfor…

Он становится медленнее, когда экземпляр становится быстрее? Я смотрю на ops/sec и time/op. Как я это неправильно понимаю?

xrendan 10 часов назад | | [–]
Я читал, что из-за размера передаваемого файла каждая операция будет больше и, следовательно, медленнее.
math-ias 10 часов назад | | | [–]
Он измеряет производительность PutObject[0] для разных размеров объектов (1, 8, 100MiB)[1]. Кажется, это странный скриншот текста в терминале.

[0] https://github.com/good-lly/s3mini/blob/30a751cc866855f783a1… [1] https://github.com/good-lly/s3mini/blob/30a751cc866855f783a1…

dev_l1x_be 13 часов назад | | [–]
для узла.

Это хорошие проекты. У меня было несколько раундов с библиотеками Rust S3, и наличие простого клиента с низкой или нулевой зависимостью крайне необходимо. Проблема в том, что вы начинаете поддерживать определенные функции (async, http2 и т. д.), и ваш хороший проект nodep начинает расти.

terhechte 12 часов назад | | [–]
У меня недавно была такая же проблема, и я использовал https://crates.io/crates/rusty-s3
maxmcd 11 часов назад | | | [–]
также: https://crates.io/crates/object_store
pier25 11 часов назад | | | [–]
для JS

> Работает на Node, Bun, Cloudflare Workers и других периферийных платформах

spott 10 часов назад | | | [–]
Но не в браузере… потому что он зависит от API node.js.
crabmusket 1 час назад | | | [–]
Всегда есть https://github.com/mhart/aws4fetch/
pier25 10 часов назад | | | | [–]
Насколько мне известно, рабочие процессы Cloudflare не используют API Node.
kentonv 9 часов назад | | | [–]
Cloudflare Workers теперь имеет широкую совместимость с Node API.
pier25 9 часов назад | | | [–]
ах, ТИЛЬ!
tommoor 12 часов назад | | [–]
Интересный проект, хотя немного забавно, что вы анонсировали его до того, как фактически подтвердили его работу с AWS?
neon_me 12 часов назад | | [–]
Лично мне AWS не очень нравится. Я пытался его настроить, но нашел его «ужасно нудным» и бросил эту идею, сосредоточившись на других платформах.

Прямо сейчас я тестирую/настраиваю Ceph… но он с открытым исходным кодом! Каждый талантливый чудак со свободным временем может внести свой вклад!

leansensei 8 часов назад | | | [–]
Попробуйте также Гараж.
zikani_03 5 часов назад | | | [–]
Хорошо, что об этом упомянули. Мы думаем запустить его для некоторых внутренних целей, вместе с Harbor. Тот факт, что ресурсный след рекламируется как достаточно небольшой, убедителен.

Каков ваш опыт управления им?

brendanashworth 7 часов назад | | [–]
Как это соотносится с obstore? [1]

[1] https://developmentseed.org/obstore/latest/

nodesocket 12 часов назад | | [–]
Немного по теме: я только что наткнулся на s5cmd[1], который в основном ориентирован на производительность и быструю загрузку/выгрузку и синхронизацию контейнеров s3.

> В 32 раза быстрее, чем s3cmd и в 12 раз быстрее, чем aws-cli. Для загрузок s5cmd может заполнить канал 40 Гбит/с (~4,3 ГБ/с), тогда как s3cmd и aws-cli могут достичь только 85 МБ/с и 375 МБ/с соответственно.

[1] https://github.com/peak/s5cmd

rsync 4 часа назад | | [–]
s5cmd встроен в платформу rsync.net. Смотрите:

https://news.ycombinator.com/item?id=44248372

_1 10 часов назад | | [–]
То же самое, что и https://github.com/minio/minio ?
карлио 10 часов назад | | [–]
minio — это хранилище объектов, совместимое с S3, связанный s3mini — это просто клиент для хранилищ, совместимых с S3.
arbll 10 часов назад | | | [–]
Нет, это S3-совместимый клиент, minio — это S3-совместимый бэкэнд
shortformblog 11 часов назад | | [–]
Это хорошо иметь. Несколько месяцев назад я тестировал альтернативу S3, но столкнулся с проблемами при ее работе. Оказалось, это произошло из-за того, что AWS внесла изменения в инструмент, которые привели к блокировке не-первичных клиентов. Просто чистая случайность с моей стороны, но я представляю, как это раздражало людей, которым приходится полагаться на этот клиент. Существует очевидная потребность в совместимом клиенте, с которым AWS не справляется.
dzonga 2 часа назад | | [–]
это выглядит круто.

но делал ли кто-нибудь сравнение цен на периферийные вычисления и, скажем, ваш скучный Hetzner VPS?

busymom0 8 часов назад | | [–]
Позволяет ли это генерировать подписанные URL-адреса для загрузок с ограничением по размеру и проверкой имени?
EGreg 10 часов назад | | [–]
Знаете, что было бы действительно круто? Сделать замену fuse-based drop-in для сопоставления папки с бакетом, как goofys. Может быть, процесс node.js может следить за файлами, например, и делать резервные копии, или, что еще лучше, он может делать резервные копии папки и фактически не занимать место на локальной машине (кроме кэша).

https://github.com/kahing/goofys

arbll 10 часов назад | | [–]
Кажется, это совершенно не связано с целью библиотеки OP?
EGreg 9 часов назад | | | [–]
Кажется, это связано с тем, чего хотят многие люди, и теперь, когда у него есть эта библиотека, это легко достижимо!
TuningYourCode 7 часов назад | | | [–]
Вы имеете в виду https://github.com/s3fs-fuse/s3fs-fuse ? Он настолько старый, что даже в Debian есть предварительно скомпилированные пакеты 😉
EGreg 7 часов назад | | | [–]
Я говорил о goofys, потому что он не совместим с POSIX, поэтому он намного быстрее, чем s3fs-fuse

Но любой из них может работать только с s3. Его библиотека работает со многими другими бэкендами. Понял? Я говорю, что ему стоит рассмотреть возможность интеграции с goofys!

hsbauauvhabzb 14 часов назад | | [–]
Я нашел слова, используемые для описания этого, раздражающие – для меня имеет смысл иметь клиент s3 на моем компьютере, но менее – клиентскую часть в веб-приложении. При дальнейшем чтении это имеет смысл, но выделение того, какую проблему решает этот пакет, в первых нескольких строках readme было бы ценно для таких людей, как я, по крайней мере
JimDabell 13 часов назад | | [–]
Я думаю, что «для платформ node и edge» и «Без поддержки браузеров!» это довольно ясно говорят? Они есть в заголовке и первом абзаце.
hsbauauvhabzb 2 часа назад | | | [–]
Думаю, если вы спросите среднестатистического ИТ-специалиста, что означают эти модные словечки, ответ вам будет непонятен…
willwade 13 часов назад | | | [–]
У меня есть серьезные подозрения, что это было написано с помощью LLM. Обильное использование эмодзи и сильный гиперуверенный язык выдают это. Доказательство: мои собственные репозитории выглядят так после того, как к ним прикоснулись курсором / виндсерфингом и т. д., но это не умаляет того, полезен ли код или хорош.
neon_me 13 часов назад | | | [–]
честно говоря, английский не мой родной язык, поэтому я помогаю себе с текстом и опечатками… но если вам некомфортно, смело открывайте PR – я хочу, чтобы все было максимально разумно
gchamonlive 13 часов назад | | | [–]
> для меня имеет смысл иметь клиент s3 на моем компьютере, но не имеет смысла иметь клиентскую часть в веб-приложении

Что вы подразумеваете под веб-приложением?

neon_me 13 часов назад | | | [–]
он ожидал быть клиентом s3 на настольном компьютере/локальной машине
gchamonlive 8 часов назад | | | [–]
Кажется, это клиент typescript. Хотя вы можете объединить его в веб-приложение, приложение typescript выходит за рамки просто веб-приложений, поэтому я и был сбит с толку.
yard2010 12 часов назад | [–]
Ощутимо связано: Bun имеет встроенный клиент, совместимый с S3. Bun — это подарок, если вы используете npm, рассмотрите возможность перехода.
ChocolateGod 12 часов назад | | [–]
Я пытался пойти по этому пути, используя Bun для всего (Bun.serve, Bun.s3 и т. д.), но был вынужден вернуться к использованию NodeJS и Express/aws-sdk из-за того, что Bun не полностью реализует API Nodes.
биорах 11 часов назад | | | [–]
Какие наиболее существенные недостающие части были обнаружены?
eknkc 11 часов назад | | | [–]
Хуже всего — это проблемы, которые не видны.

На днях я игрался с сервером MCP ( https://github.com/modelcontextprotocol/typescript-sdk ). В последнее время я использую bun по умолчанию, и сервер на основе http просто не регистрировался в claude или любом другом клиенте. Никаких журналов ошибок, ничего.

Повозившись с кодом, я просто попробовал node, и он заработал.

zackify 11 часов назад | | | [–]
Он определенно отлично работает в Bun. У меня есть построенный на производстве сервер mcp с аутентификацией, работающий под Bun.

Теперь, если вы преобразуете типы запросов/ответов в собственные типы Bun Server, это может быть сложно.

Но он отлично работает при использовании Express в Bun с официальной реализацией протокола для TypeScript.

На самом деле я тоже пишу об этом книгу и буду использовать для этого Bun https://leanpub.com/creatingmcpserverswithoauth

tengbretson 9 часов назад | | | | [–]
Не уверен насчет конкретного API, но на момент моей последней попытки Bun все еще не поддерживает PDF.js (pdfjs-dist), ssh2 или playwright.
ChocolateGod 9 часов назад | | | | [–]
localAddress не поддерживается на сокетах, то есть вы не можете указать исходящий интерфейс, что полезно, если у вас несколько сетевых карт.
pier25 11 часов назад | | | [–]
По моему мнению, одним из самых интересных аспектов Bun является предоставление встроенных API, не зависящих от NPM.
greener_grass 11 часов назад | | | [–]
Может ли кто-нибудь объяснить, в чем преимущество этого?

Если мне нужен доступ к S3, я могу просто использовать NPM

Если мне не нужен доступ к S3, я не хочу, чтобы он был интегрирован в мою среду выполнения.

pier25 10 часов назад | | | [–]
Что бы вы предпочли: использовать официально поддерживаемое решение или какой-то случайный пакет случайного автора, который может бросить проект (или сделать что-то похуже)?
greener_grass 10 часов назад | | | [–]
Пакеты S3 на NPM поддерживаются AWS
pier25 9 часов назад | | | [–]
Конечно, но я рассуждал об общем вопросе.

Я был бы удивлен, если бы в каком-либо из ваших проектов Node было менее 100 общих зависимостей, большая часть из которых будет поддерживаться одним человеком.

См. пример Express. Всего 66 зависимостей, из которых 26 зависят от одного сопровождающего.

https://npmgraph.js.org/?q=express

Но даже в случае официального aws-sdk они недавно устарели v2. Теперь мне нужно обновить все мои не очень старые проекты Node для работы с новой версией. Возможно, этого бы не произошло, если бы я использовал клиент S3 Бана.

greener_grass 8 часов назад | | | [–]
Так давайте же поместим все возможные пакеты в клиентскую базу?

Такой подход не масштабируется. Нам следует улучшить NPM.

pier25 6 часов назад | | | [–]
Как улучшить NPM?

Кстати, я не говорю, что нам следует убивать NPM. Я говорю, что нам следует уменьшить нашу зависимость от случайных пакетов.

Bun не нужно добавлять все в ядро движка. Например: при использовании .NET вы все равно добавляете множество официальных зависимостей Microsoft из Nuget.

neon_me 12 часов назад | | | [–]
есть ли способ обернуть их клиент s3 для использования в рабочих процессах HonoJS/CF?
oakesm9 12 часов назад | | | [–]
Нет. Он реализован в машинном коде (Zig) внутри самого Bun и доступен разработчикам только как JavaScript API.

Исходный код: https://github.com/oven-sh/bun/tree/6ebad50543bf2c4107d4b4c2…

neon_me 12 часов назад | | | [–]
10/10 Мне нравится (и то, как быстро он работает!) — просто это не тот вариант использования, который мне нужен.

Я хочу иметь максимальную возможность «перемещать» свои проекты между службами/поставщиками/провайдерами

zackify 11 часов назад | | [–]
Я пришел сюда, чтобы сказать то же самое.

Вместо использования node лучше отправить oven/bun через docker и получить контейнер размером 90 МБ.


Source: news.ycombinator.com

Мое приключение по перерезанию шнура=news.ycombinator.com=

Мое приключение по перерезанию шнура ( brander.ca )

mikestew 38 минут назад [–]
Нужен (2020), и это только когда он последний раз обновлялся. Потому что всю дорогу до конца страницы я задавался вопросом: «В каком десятилетии это было написано?»

Мне также было интересно, почему это должно быть «приключением». Да, когда мы отключили кабель около пятнадцати лет назад, все было немного грубо. Mac Mini с тюнером-донглом и кучей хаков. Теперь это просто включение AppleTV, который выводит на неподключенный телевизор , и все. (Или плавание в открытом море, если мои деньги по непонятной причине не годятся.)

dangus 10 минут назад | [–]
Да, я думаю, если бы статья была написана сегодня, это было бы просто упражнением по раскрутке типичного пиратского стека Usenet с помощью Plex или Jellyfin.

Я думаю, что тогда это было правдой, а сегодня это еще более верно, что такого рода усилия просто не стоят того. Антенные каналы — полный отстой, за исключением все более редких спортивных мероприятий, которые не перешли на платное телевидение. И этот отстойный опыт становится еще хуже, если вы не живете в большом метрополитене, близком к вещательным антеннам.

Телевидение даже не приносит достаточно удовольствия, чтобы тратить все эти усилия. Я бы лучше вообще не смотрел телевизор. И честно говоря, я думаю, что значительное количество бывших клиентов телевизора, возможно, сделали именно такой выбор — не просто отключили кабель, а нашли совершенно другие занятия. На ум приходят игры, которые я безмерно предпочитаю практически любому телешоу.

Еще одно небольшое замечание: я думаю, что многие кабельные и стриминговые провайдеры проделали хорошую работу по решению проблемы битрейта потоковой передачи, который уступает битрейту антенны. На моем местном рынке OTA в общей сложности один демонстрационный канал 4K, а все остальное вещает с битрейтом, который, по-видимому, уступает современным стриминговым платформам.


Source: news.ycombinator.com

Параметр «Перевести» неактивен/недоступен в контекстном меню: chrome =reddit.com/r/chrome=

Параметр «Перевести» неактивен/недоступен в контекстном меню Устранение неполадок | Windows ( self.chrome )

отправлено 9 часов назад пользователем Example_Imaginary

https://preview.redd.it/3ea9x58kdb6f1.png?width=437&format=png&auto=webp&s=9cdd50992bf543ee7aba2b40aef2632c7c2aa332

https://preview.redd.it/iieqhvbodb6f1.png?width=438&format=png&auto=webp&s=04850dba4db50d059324a62f15b577ffbc7e4bc2

Привет, ребята! Я не могу использовать функцию перевода Chrome на моем ПК, хотя на моем MacBook она работает отлично. Опция перевода неактивна в меню с тремя точками и отсутствует в контекстном меню. Есть идеи, как это исправить?

Источник

Значок PDF отображается рядом со ссылками PDF на странице веб-сайта, нарушая определенные макеты. Как их отключить? : chrome =reddit.com/r/chrome=

Значок PDF отображается рядом со ссылками PDF на странице веб-сайта, нарушая определенные макеты. Как их отключить? Устранение неполадок | Mac ( self.chrome )

отправлено 9 часов назад * пользователем SteveMND

Итак, у меня Chrome (137.0.7151.104, Mac Sequoia 15.3.2), и я заметил, что после недавнего обновления некоторое время назад он, похоже, принудительно вставляет значок PDF рядом с любой ссылкой на страницу веб-сайта, которая указывает на файл PDF. Мне это очень не нравится, потому что это часто нарушает или ломает сам макет страницы (например, отображение этого «блока» рядом с розовой кнопкой на прикрепленном изображении).

Как отключить отображение этого значка?

Я хочу, чтобы PDF-файлы по-прежнему отображались в Chrome, когда я нажимаю на ссылки, но не хочу, чтобы это нарушало работу просматриваемой мной страницы. Я не смог найти никаких конкретных настроек для отключения этого значка, поэтому любая помощь будет полезна. Заранее спасибо!

Как видно на хроме

Как видно в других браузерах

Источник