Core Compatibility Report: efficient-chipmunk/v0
| ๐ก |
bioimageio format validation |
| status |
valid-format |
| source |
https://hypha.aicell.io/bioimage-io/artifacts/efficient-chipmunk/files/rdf.yaml?version=v0 |
| id |
10.5281/zenodo.8401064/8429203 |
| format version |
model 0.4.10 |
| bioimageio.spec |
0.5.6.0 |
|
Location |
Details |
| โ๏ธ |
|
Successfully created `ModelDescr` instance. |
| โ๏ธ |
|
bioimageio.spec format validation model 0.4.10 |
| โ |
weights.pytorch_state_dict.dependencies |
Custom dependencies (conda:dependencies.yaml) specified. Avoid this whenever possible to allow execution in a wider range of software environments. |
| โ |
weights.pytorch_state_dict.pytorch_version |
missing. Please specify the PyTorch version these PyTorch state dict weights were created with. |
| โ |
weights.pytorch_state_dict |
Reproduce test outputs from test inputs (pytorch_state_dict) |
| โ |
weights.pytorch_state_dict |
No module named 'plantseg.models.model' |
|
|
See Traceback 1. |
|
weights.pytorch_state_dict |
recommended conda environment (Reproduce test outputs from test inputs (pytorch_state_dict)) |
|
|
%YAML 1.2
---
name: plant-seg
channels:
- pytorch
- nvidia
- conda-forge
- lcerrone
- nodefaults
dependencies:
- conda-forge::bioimageio.core
- pip
- plantseg
- pytorch-cuda=11.7
|
|
weights.pytorch_state_dict |
conda compare (Reproduce test outputs from test inputs (pytorch_state_dict)) |
|
|
Success. All the packages in the specification file are present in the environment with matching
version and build string. |
Traceback 1
โญโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ Traceback (most recent call last) โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฎ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 781 โ โ test_input = get_test_input_sample(model) โ
โ 782 โ โ expected = get_test_output_sample(model) โ
โ 783 โ โ โ
โ โฑ 784 โ โ with create_prediction_pipeline( โ
โ 785 โ โ โ bioimageio_model=model, devices=devices, weight_format=weight_format โ
โ 786 โ โ ) as prediction_pipeline: โ
โ 787 โ โ โ results = prediction_pipeline.predict_sample_without_blocking(test_input) โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 368 โ โ โ f"deprecated create_prediction_pipeline kwargs: {set(deprecated_kwargs)}" โ
โ 369 โ โ ) โ
โ 370 โ โ
โ โฑ 371 โ model_adapter = model_adapter or create_model_adapter( โ
โ 372 โ โ model_description=bioimageio_model, โ
โ 373 โ โ devices=devices, โ
โ 374 โ โ weight_format_priority_order=weights_format and (weights_format,), โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 166 โ โ assert errors โ
โ 167 โ โ if len(weight_format_priority_order) == 1: โ
โ 168 โ โ โ assert len(errors) == 1 โ
โ โฑ 169 โ โ โ raise errors[0] โ
โ 170 โ โ โ
โ 171 โ โ else: โ
โ 172 โ โ โ msg = ( โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 109 โ โ โ โ try: โ
โ 110 โ โ โ โ โ from .pytorch_backend import PytorchModelAdapter โ
โ 111 โ โ โ โ โ โ
โ โฑ 112 โ โ โ โ โ return PytorchModelAdapter( โ
โ 113 โ โ โ โ โ โ model_description=model_description, devices=devices โ
โ 114 โ โ โ โ โ ) โ
โ 115 โ โ โ โ except Exception as e: โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 35 โ โ โ raise ValueError("No `pytorch_state_dict` weights found") โ
โ 36 โ โ โ
โ 37 โ โ devices = get_devices(devices) โ
โ โฑ 38 โ โ self._model = load_torch_model(weights, load_state=True, devices=devices) โ
โ 39 โ โ if mode == "eval": โ
โ 40 โ โ โ self._model = self._model.eval() โ
โ 41 โ โ elif mode == "train": โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 100 โ load_state: bool = True, โ
โ 101 โ devices: Optional[Sequence[Union[str, torch.device]]] = None, โ
โ 102 ) -> nn.Module: โ
โ โฑ 103 โ custom_callable = import_callable( โ
โ 104 โ โ weight_spec.architecture, โ
โ 105 โ โ sha256=( โ
โ 106 โ โ โ weight_spec.architecture_sha256 โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 65 ) -> Callable[..., Any]: โ
โ 66 โ """import a callable (e.g. a torch.nn.Module) from a spec node describing it""" โ
โ 67 โ if isinstance(node, CallableFromDepencency): โ
โ โฑ 68 โ โ module = importlib.import_module(node.module_name) โ
โ 69 โ โ c = getattr(module, str(node.callable_name)) โ
โ 70 โ elif isinstance(node, ArchitectureFromLibraryDescr): โ
โ 71 โ โ module = importlib.import_module(node.import_from) โ
โ โ
โ /usr/share/miniconda/envs/36b55098eb1d2219512c92f0ee4a7f969194a60a929a6e58f34d1b2b4928a73b/lib/p โ
โ โ
โ 85 โ โ โ if character != '.': โ
โ 86 โ โ โ โ break โ
โ 87 โ โ โ level += 1 โ
โ โฑ 88 โ return _bootstrap._gcd_import(name[level:], package, level) โ
โ 89 โ
โ 90 โ
โ 91 _RELOADING = {} โ
โ in _gcd_import:1387 โ
โ in _find_and_load:1360 โ
โ in _find_and_load_unlocked:1324 โ
โฐโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฏ
ModuleNotFoundError: No module named 'plantseg.models.model'